Der Computerpionier Jaron Lanier (»Wenn Träume erwachsen werden«), der 2014 den Friedenspreis des Deutschen Buchhandels gewonnen hat, setzt sich mit Kollegen auseinander, die allen Ernstes glauben, dass Roboter mit ihrer künstlichen Intelligenz eines Tages die Menschen verdrängen und die Macht an sich reißen werden. Schon Joseph Weizenbaum (1923-2008), eine Generation älter als Lanier, beschrieb den Aberglauben von KollegInnen, die im Rahmen eines psychologischen Forschungsprogramms begannen, den Rechner, der die Daten zu verarbeiten hatte, zu personalisieren und in seiner Nähe zu flüstern, als könne er zuhören. Heute versucht man, selbstfahrende Autos zu konstruieren. Big Data hat große Konjunktur, und vom Roboter, der den Rasen mäht, soll es weitergehen über das »Internet der Dinge«, bei dem der Kühlschrank selbst den Nachschub ordert. Dabei sind Roboter wie jede Maschine doch immer angewiesen nicht nur auf Zufuhr von Energie, die sie nicht selbst erzeugen können, sondern auch auf jede Menge Daten, die ihnen nur von Menschen geliefert werden können. Lanier beschreibt etwa, dass die Übersetzungsprogramme in andere Sprachen nur deshalb solch erstaunliche Fortschritte gemacht haben, weil man dazu übergegangen ist, ihnen fortwährend neue, von Menschen gemachte Übersetzungen »einzufüttern«. Die Behauptung, solche Programme seien »automatisch«, sei daher zumindest ungenau, wenn nicht sogar Betrug. Betrug auch deswegen, weil die Menschen, deren Texte genutzt werden, für diesen Mehrwert keine Bezahlung bekommen.
Die Algorithmen, nach denen Suchmaschinen funktionieren, sind von Menschen erstellt, und deren Vorurteile gehen in das Suchverhalten der Maschine ein. Darüber hatten und haben besonders Frauen und People of Color Grund sich zu beschweren.
Die Techniker sind aber auch gelegentlich angenehm sachlich. Mir selbst ist in der Anfangszeit meines Umgangs mit einem Rechner aufgefallen, dass eine Anleitung für das Betriebssystem DOS nicht von »Befehlen« sprach, sondern von »Schaltungen«, und das fand ich ungemein hilfreich. Nur einem Menschen oder eventuell noch einem Tier kann man Befehle geben, aber Rechner bestehen aus Tausenden von Verbindungen, die geschaltet werden oder auch nicht. Die Frage, ob Rechner Bewusstsein haben können, stellt sich so gar nicht erst.
Der Science-Fiction-Autor Arthur C. Clarke schrieb Mitte der 60er Jahre zusammen mit dem Filmemacher Stanley Kubrick den Roman »Odyssee im Weltraum«. (Im WDR-Radio gab es ein schönes Feature über diese Zusammenarbeit.) In der Geschichte, die die beiden sich ausgedacht haben, wirken zweierlei Kräfte: einerseits eine überzeitliche Macht, die die Evolution der Menschen befördert, und andererseits die geheimnisvolle Menschwerdung eines Computers. Beide Dynamiken werden aber unabhängig voneinander beschrieben und haben nichts miteinander zu tun. Das gibt der ganzen Geschichte, die von Kubrick genial verfilmt worden ist, eine rätselhafte Struktur, die offenbar gewollt ist. Man kann sich fragen, ob die irrationale Angst vor der Verselbstständigung der Maschinen, die Lanier erwähnt, nicht auf diese Geschichte von Clarke/Kubrick zurückgeht.
Clarke erwähnt eine Regel, die Alan Turing aufgestellt hat: Wenn die Interaktion eines Menschen mit einem Computer so perfekt ablaufe, dass der Mensch nicht mehr unterscheiden könne, ob er es mit einem anderen Menschen oder mit einer Maschine zu tun hat, müsse man davon ausgehen, dass der Computer Bewusstsein habe. Clarke schreibt dem Computer »Hal« ein solches Verhalten zu: Hal ist nicht nur mit der gesamten Kultur der Menschheit gefüttert worden, sondern auch mit Psychologie, nämlich mit einer Art Kindheitsgedächtnis. Der offene Konflikt mit seinen Schöpfern bricht auf, als er eine Neurose entwickelt, ein Schuldgefühl.
Nun, ich weiß nicht, ob es heute irgendeinen Menschen gibt, der einen Computer nicht von einem Menschen unterscheiden kann; ich selbst bemerke immer noch, dass die Rechner nur rechnen und nicht im Geringsten Bewusstsein haben. Wenn ich nur an die Ansage in deutschen Bahnhöfen denke, dann würde ich mir sehnlichst wünschen, die dortigen Rechner nicht von Menschen unterscheiden zu können. Man hat Menschenstimmen einzelne Wörter zu sprechen gegeben und fügt diese nun unbearbeitet zusammen. »Der Zug nach (Pause) – Hamburg – (Pause) wird heute (Pause) 15 Minuten später eintreffen.« Das bedeutet, dass das Publikum sich mit Ansagen zufriedengeben muss, die erheblich schlechter sind als frühere ohne Computer.
Aber zurück zu Clarke: Er versetzt seinen Helden, einen einsamen Raumfahrer, in die fünfte Dimension und lässt ihn auf diese Weise alle Schwierigkeiten ob der ungeheuren Größe des uns umgebenden vierdimensionalen Raumes überwinden. Die mächtigen Wesen, die ihn retten, werden folgendermaßen beschrieben:
»Sobald ihre Maschinen besser waren als ihre Körper, zogen sie unbeirrt die Konsequenzen. Sie übertrugen erst ihre Gehirne und dann ihre bloßen Gedanken in glänzende Gehäuse von Metall und Plastik. In diesen bewegten sie sich im interstellaren Raum. Sie waren Raumschiffe (Hervorhebung im Original).
Aber das Zeitalter der beseelten Maschinen ging schnell vorbei. Bei ihren ununterbrochenen Versuchen hatten sie herausgefunden, wie sie ihr Wissen in der Struktur des Raums und ihre Gedanken in den Wellen des Lichts speichern konnten. So befreiten sie sich schließlich von der Tyrannei der Materie und wurden Geschöpfe der Strahlung.«
Das ist eine faszinierende Vision. Man bemerke aber die Formulierung: »Sie übertrugen erst ihre Gehirne und dann ihre bloßen Gedanken …« Das mit Bewusstsein begabte Wesen, das diese Übertragung vornimmt, muss vorher vorhanden sein. Der Computer Hal, der sich auf einmal selbstständig macht, ist nicht von dieser Art. Er wird als spontane Neuschöpfung aus sich selbst beschrieben, als synthetisch entstandenes Bewusstsein gewissermaßen. Die Menge der Daten und auch ihre Verknüpfung, so reichhaltig das alles auch sein mag, erzeugen aber noch kein Bewusstsein. Lanier stellt folgende Leitsätze auf:
Computer sind nur »Kanäle« zwischen Menschen, und man sollte auch nicht mehr in ihnen sehen.
Erst die Verwendung von Informationen durch Menschen gibt diesen Informationen Bedeutung, daher sollten Informationen für sich genommen als bedeutungslos angesehen werden.
Kein Softwaremodell kann einen Menschen repräsentieren.
Lanier beklagt, dass manche seiner Kollegen diese Tatsache nicht zur Kenntnis nehmen wollen und sich stattdessen Visionen von Unsterblichkeit hingeben, im Glauben, sie könnten, wie Clarke es in seinem Roman beschreibt, ihr Bewusstsein in Computerstrukturen übertragen. Und er besteht darauf: Sobald der Mensch zulässt, dass Computer Entscheidungen fällen, die er selbst fällen sollte, stiehlt er sich aus der Verantwortung. Das ist seine Antwort auf die inzwischen von Ethikkommissionen behandelte Frage, wer die Schuld trägt, wenn ein automatisiertes Fahrzeug einen Menschen verletzt oder tötet: Niemand trägt mehr die Schuld. Denn die Menschen haben dann zugelassen, dass seelenlose Automaten die Szene beherrschen.