Das Google-Auto ist ein Beispiel. In 10 Jahren werden solche Autos ganz normal sein, Taxi- oder Busunternehmen z.B. werden keine Fahrer mehr brauchen. Anderes Beispiel: Im Bereich der Militärtechnologie werden es immer weniger Menschen sein, die über Ziele entscheiden, sondern intelligente Systeme, die entweder Optionen präsentieren oder gleich die endgültige Zielauswahl treffen und somit natürlich auch über Leben und Tod entscheiden.
Zum zweiten, diese Entwicklung löst bei Menschen tiefes
Unbehagen aus. Nahezu alle Anwesenden (sans moi, siehe unten) hielten es für
sehr wichtig, dass Menschen in irgendeinem Sinne die Kontrolle behalten, wobei
nicht so ganz klar wurde, was das noch bedeuten kann, denn solche Maschinen
werden sinnlos, wenn wir eben nicht einen großen Teil der Arbeit an sie
delegieren.
Was steckt hinter diesem Unbehagen? Zum einen – so meine
Liebste, mit der ich beim Abendessen darüber sprach – die Angst, dass Maschinen
die Kontrolle übernehmen und Menschen unterdrücken könnten. Das ist ein
Szenario, welches in der Science Fiction schon öfter thematisiert wurde, und es
lohnt sich vielleicht, manche dieser Bücher und Filme nochmal anzusehen, weil
sich dort ganz interessante Aspekte zum Thema finden könnten. Ich glaube auch, dass diese
Diagnose als Beschreibung unserer latenten Befürchtungen zutrifft. Sobald
Maschinen autonom agieren, sobald sie möglicherweise selbständig lernen können,
ist der Gedanke nicht fern, dass wir sie nicht mehr kontrollieren können und
die Dinger einfach tun, was sie „wollen“. Ob das allerdings für die nächsten 20,
30 Jahre realistisch ist, weiß ich nicht. Weiter kann man sowieso nicht denken.
Meine Vermutung dagegen war, dass das Unbehagen auch ausgelöst
wird, weil unser Selbstbild in Frage gestellt wird. In religiöser wie säkularer
Form ist zumindest in der westlichen Kultur die Vorstellung tief verankert,
dass wir Menschen etwas ganz besonderes sind. Dass ein Auto schneller fährt als
ein Mensch läuft, ist vielleicht noch
akzeptabel, immerhin sind uns schon jeher viele Tiere in allen möglichen physischen
Aufgaben deutlich überlegen, obwohl wir auch über diese Tatsache meist nicht
vertieft nachdenken. Wir Menschen sehen uns aber seit der Antike vor allem als
geistige Wesen. Jetzt kommen Maschinen, die uns in Intelligenz, Urteilsfähigkeit,
Präzision, Schnelligkeit des Denkens usw. in allen Belangen übertreffen. Je intelligenter,
komplexer und selbständiger diese Maschinen sind, desto schwieriger wird es,
unsere Eigeneinschätzung als Krone der Schöpfung aufrecht zu erhalten.
Aber wie berechtigt ist diese Selbsteinschätzung? Es ist ja
nicht so, als ob Menschen nicht genügend Fehler, teilweise schreckliche Fehler machten
bzw. sogar ganz absichtlich Taten begehen, die ein Roboter von sich aus vermutlich
nicht begehen würde (z.B. eine vollbesetzte Flugmaschine absichtlich gegen ein
Bergmassiv zu steuern). Wenn uns Roboter überlegen sind, dann sind sie uns eben
überlegen, und zwar – ganz wichtig – im Sinne der Kriterien, die wir selbst an Handeln
und Entscheidungen im jeweiligen Bereich anlegen. Diese Systeme machen, was wir
anstreben, nur viel besser als wir selbst. Und so gesehen wären wir doch blöd,
diese Möglichkeiten nicht zu nutzen, nur weil wir menschliche Kontrolle gewahrt
sehen wollen. Wenn wir jetzt mal das Szenario einer Revolution der Roboter
ausschließen, stellt sich schon die Frage, was an dieser Kontrolle so wichtig
ist. Mit anderen Worten, die technische Entwicklung bietet uns die Chance,
jetzt auch auf geistigem Gebiet, die menschlichen Begrenztheiten hinter uns zu
lassen und zu ganz neuen Ufern aufzubrechen. Möglicherweise kann man irgendwann
eine Symbiose zwischen Mensch und Maschine herbeiführen, die eine klare
Trennung zwischen uns und „totem Gerät“ gar nicht mehr erlaubt, durch die
Implantierung von Chips etwa. Auch hieran wird bereits gearbeitet. Der Mensch
ist etwas, das überwunden werden soll, sagt Nietzsche. In dieses Zeitalter
treten wir jetzt ein.
Keine Kommentare:
Kommentar veröffentlichen