Künstliche Intelligenz ist ein ebenso faszinierendes wie schwieriges Problem der Philosophie. Der polnische Science-Fiction-Autor und Philosoph Stanisław Lem beschäftigte sich schon in den 60er Jahren mit der Frage, wie der Mensch mit denkenden Maschinen umgehen soll. Doch wie aktuell sind seine Überlegungen noch? Eine Analyse.
„Was ist er schon? Ein Stromkreis in einem eisernen Kasten, weiter nichts … Ein lebendes Wesen wäre doch damals in dem finsteren, zerstörten Raumschiff zugrunde gegangen … Bestimmt, ganz bestimmt …“
Schon seit der Herstellung des ersten Faustkeils schuf der Mensch Werkzeuge und Hilfsmittel, um sich das Leben zu erleichtern. Der Philosoph Gotthard Günther nannte diese Art von Objekten, welche die Funktion des menschlichen Körpers nachahmen, die „erste Maschine“. Vom Schmiedehammer zum Verbrennungsmotor folgten alle menschlichen Konstruktionen diesem Prinzip. Nun, im Zeitalter des Transistors, eröffnet sich jedoch eine neue Möglichkeit: Die Konstruktion der „zweiten Maschine“, eines Objekts, das menschliche Gedanken zu reproduzieren imstande ist. Der Höhepunkt dieser Entwicklung wäre sicherlich die Erschaffung einer künstlichen Intelligenz (KI) – die Erfüllung eines der ältesten Träume der Menschheitsgeschichte. Beginnend mit den altgriechischen Mythen von Pandora und Talos über Goethes Beschreibung des Homunculus in „Faust“ bis hin zu den Robotergeschichten Isaac Asimovs: Der Mensch war schon immer von der Erschaffung eines künstlichen Wesens „nach seinem Bilde“ fasziniert. In gewisser Weise würde die Schöpfung einer KI das Ende der Entwicklung vom Homo Sapiens zum Homo Deus, dem „göttlichen Menschen“ markieren – denn nur ein Gott hat Macht, denkende und sich selbst bewusste Lebewesen zu erschaffen.
Die ungeklärten Fragen und philosophischen Abgründe der Beziehung von Mensch und „zweiter Maschine“ spielen in Stanisław Lems 1968 erschienener Kurzgeschichtensammlung „Pilot Pirx“ eine wichtige Rolle. Die namensgebende Hauptfigur ist ein Raumschiffpilot, der in nicht allzu ferner Zukunft seinen Dienst in den Weiten des Sonnensystems verrichtet und dabei immer wieder in haarsträubende, rätselhafte und gefährliche Situationen gerät.
Echo einer Katastrophe
Eines Tages bekommt Pirx den Auftrag, ein altes Frachtraumschiff zum Mars zu fliegen – im Grunde eine etwas undankbare Routineaufgabe. Neben der angeheuerten Mannschaft befindet sich auch ein Roboter mit der Bezeichnung „Terminus“ an Bord, der für schwere Arbeiten am Reaktor eingesetzt wird. Pirx ist weder von dem stark ramponierten Raumschiff noch vom langsamen und veralteten Maschinenhelfer sonderlich begeistert. Zu allem Überfluss stellt sich auch noch heraus, dass der Frachter schon bereits eine Havarie hinter sich hat und nach der Beschädigung durch Meteoriten 16 Jahre lang im All trieb, bevor er wiedergefunden und repariert wurde. Die damalige Besatzung war, durch Trümmer voneinander abgeschnitten, langsam zugrunde gegangen, bis der Sauerstoff aufgebraucht war. Überstanden hatte dieses Unglück nur der Arbeitsroboter – Terminus.
Trotz dieser wenig erhebenden Vorgeschichte macht sich Pirx auf den Weg zum roten Planeten; zunächst verläuft der Flug recht ereignislos, nur unterbrochen von Routinearbeiten und gelegentlichen Reparaturen der altersschwachen Maschinen. Eines Nachts jedoch wird Pirx von unheimlichen Geräuschen aus dem Schlaf gerissen: Es sind Morse-Klopfzeichen, die durch Rohrleitungen im ganzen Schiff zu hören sind. Beunruhigend ist, dass diese Signale offenbar von den havarierten, nun jedoch schon lange toten Besatzungsmitgliedern zu stammen scheinen – verzweifelt um Antwort bittend, um Hilfe und Sauerstoff flehend. Nach langer Suche stellt Pirx fest, dass die Klopfzeichen von Terminus stammen, der mit Ausbesserungen am Reaktor beschäftigt ist und dabei anscheinend unterbewusst die letzten Signale der toten Mannschaft wiedergibt. Darauf angesprochen reagiert der Roboter (ohnehin nur zu rudimentärer Kommunikation fähig) völlig verständnislos; er scheint nicht zu begreifen, was er tut.
In den folgenden Nächten setzt sich die Klopfkaskade fort; abgesehen von einer irrationalen Suche nach der Schiffskatze zeigt Terminus sonst aber kein abnormes Verhalten. Als Pirx schließlich mit seiner Geduld (und den Nerven) am Ende ist, beschließt er, Terminus seinerseits mit Klopfzeichen zu antworten. Auf diese Veränderung reagiert der Roboter jedoch unerwartet: Anstatt mit den Signalen fortzufahren oder aufzuhören, kommt die Frage „W‑e-r-s-p-r-i-c-h-t-w-e-r-s-p-r-i-c-h‑t“ zurück – Pirx sieht sich den hektischen, verzweifelt fragenden Stimmen von seit 19 Jahren toten Raumfahrern gegenüber. Verstört bricht er den Versuch ab; Terminus fährt äußerlich ungerührt mit seinen programmgemäßen Wartungsarbeiten fort.
Wieder in seiner Kabine grübelt Pirx über das Erlebte nach. Terminus ist nicht darauf programmiert, Geräusche aufzuzeichnen und wiederzugeben, reproduziert jedoch immer wieder die letzten Tage der sterbenden Besatzung, antwortet sogar auf Input von außen. Hat der Roboter die Persönlichkeiten der Toten irgendwie in sich aufgenommen, könnte Pirx sich mit ihnen sogar unterhalten? Oder hat Terminus in all den Jahren, eingeklemmt zwischen Trümmern in einem umhertreibenden Raumschiffwrack, eine Art rudimentärer Persönlichkeit entwickelt, die nun unterbewusst zum Vorschein kommt? Ist der Schrecken, das Flehen nach Hilfe, das Pirx’ Einmischung hervorgerufen hat, nur eine Imitation oder der Ausdruck eines Bewusstseins? Am Ende beschließt der Pilot, diesen Fragen nicht weiter auf den Grund zu gehen; er ist sich sicher, nie befriedigende Antworten darauf finden zu können. Terminus, so seine Anordnung, soll indes bei nächster Gelegenheit verschrottet werden.
Zauberlehrlinge der Zukunft?
Die Frage nach der Natur des Bewusstseins ist nicht erst von der modernen Forschung aufgeworfen worden. Bereits im antiken Griechenland beschäftigten sich große Denker mit den Worten, die über dem Eingang des Orakels von Delphi zu lesen waren: „Erkenne dich selbst!“ Im 20. und 21. Jahrhundert bezieht sich dies nicht mehr nur auf den Menschen, sondern auch auf die von ihm geschaffenen künstlichen Intelligenzen. Kann die „zweite Maschine“ ein Bewusstsein haben? Stanisław Lem ist dieser Frage wohl am prägnantesten nachgegangen; die Kurzgeschichte „Terminus“ rührt an den Grundfesten des menschlichen Geistes. Was macht eine Person eigentlich aus? Inwiefern unterscheidet sie sich von einem lediglich programmierten Automaten? Der Roboter Terminus ist eigentlich nur zum Ausführen programmierter Befehle konstruiert; dennoch reagiert er aktiv auf Pirx’ Klopfen und formuliert eigenständige eine Frage. Solch ein unabhängiges Handeln deutet normalerweise auf die Existenz eines Bewusstseins hin.
Hier kommt erschwerend dazu, dass es dem Menschen grundsätzlich unmöglich ist, Bewusstsein zu programmieren. Das Problem: Die verwendete Programmiersprache muss komplexer sein als die Sprache, in der der Roboter dann tatsächlich „denkt“. Für ein zur Selbstreflexion fähiges Bewusstsein notwendige Begriffe wie „Ich“ oder „Selbst“ sind allerdings paradox – es gibt keine noch komplexere Sprachebene, auf die sie sich beziehen könnten. Das bedeutet konkret: Wenn ein Roboter in einer Sprache denken soll, die Begriffe wie „Ich“ oder „Selbst“ als logisch relevante Elemente betrachtet, gibt es keine höhere Metasprache mehr, in der man die Software des Roboters selbst schreiben könnte.
Zur Lösung dieses fundamentalen Problems hat sich die kybernetische Forschung in den letzten Jahren verstärkt selbstlernenden Programmen zugewandt. Die Fähigkeit, die eigene Programmierung verändern zu können, ist die Grundbedingung für die Entwicklung eines Bewusstseins; auch unsere Gehirne – gewissermaßen biologische Computer – funktionieren im Grunde nicht anders. Diesen Pfad der Selbst-Veränderung einzuschlagen könnte völlig ungeahnte Folgen haben. Die Erschaffung einer wahren „zweiten Maschine“ käme dann für uns selbst unerwartet, nicht kontrolliert durch eine vorgefertigte Programmierung. Lem stellt mithilfe des Klopfsignale produzierenden Terminus die entscheidende Frage: Sind wir auf alles vorbereitet, zu dem sich unsere Maschinenschöpfung entwickelt?
Allzu menschlich
Vor eine ähnliche Frage sieht sich Pirx bei einer anderen Mission gestellt: Zusammen mit zwei Wissenschaftlern und einem fortschrittlichen, „nichtlinearen“ Roboter namens Aniel soll er einen fremden Gesteinsplaneten erkunden. Die geologische Routinemission ist fast beendet, und der Tag der Abreise rückt näher, als Aniel von einem Auftrag nicht mehr zurückkehrt. Die drei Menschen begeben sich auf die Suche nach dem Roboter und finden seine wissenschaftliche Ausrüstung am Fuß einer Felswand. Von der Maschine selbst ist keine Spur zu sehen. Völlig ratlos will man die Suche schon aufgeben, als Pirx mithilfe eines Messgerätes Aniels schwache Spur ortet – an der Felswand. Offenbar ist der Roboter nach Erledigung seines Auftrags nicht direkt zum Lager zurückgekehrt, sondern die Wand hinaufgeklettert. Pirx und einer seiner Kollegen folgen der Spur mithilfe ihrer Bergsteigerausrüstung. Nach einer äußerst gefährlichen Kletterpartie endet die Spur an einem Felsspalt; in der Tiefe unter sich entdeckt Pirx einige Metallteile. Wieder unten angekommen finden die Menschen nur noch zerstörte Überreste vor; der Roboter war anscheinend nach dem misslungenen Sprung über die Spalte hinuntergestürzt.
Was die Maschine zu diesem offenbar völlig irrationalen Verhalten veranlasst hat, bleibt ein Rätsel. Pirx’ Kollegen sind fest davon überzeugt, dass der Roboter eine Fehlfunktion hatte; Pirx selbst jedoch ist anderer Meinung. Er glaubt, dass Aniel die Herausforderung einer Kletterpartie gereizt hat, ein Gefühl, das auch er beim Anblick des Felsmassivs verspürte. Zwar würden Kybernetiker kategorisch das Vorhandensein von Emotionen ausschließen und lediglich von probabilistischen Prozessen sprechen, von einer gewissen „Spontanität“ nichtlinearer Roboter. Doch beweist Aniels Verhalten für Pirx, dass man die Sache nicht so einfach betrachten kann: „Hatte er selbst, Pirx, vielleicht einen Defekt gehabt, als er unbedingt die Wand bezwingen wollte? Aniel war seinen Konstrukteuren ganz einfach ähnlicher gewesen, als diese zuzugeben bereit waren.“
Der Roboter, unser Mitmensch?
Die von Lem hier aufgeworfene Frage ist äußerst problematisch: Wie menschlich darf eine KI werden, bevor ihr menschlicher Schöpfer ihre Entwicklung hemmt? Seine nichtlinearen Roboter haben eine menschenähnliche Form, weisen zuweilen Anzeichen unberechenbaren Verhaltens auf oder entwickeln kleine Marotten und Eigenheiten. Setzt man die technische Entwicklung und die Experimente mit selbstlernenden Maschinen voraus, ist eine solche Entwicklungsstufe keine reine Utopie mehr. Doch ab einem gewissen Punkt hört ein Roboter (tschechisch: Arbeiter) auf, ein einfacher Roboter zu sein. Diesen Punkt zu bestimmen ist schwierig, doch ist er einmal erreicht, ergeben sich daraus gravierende ethische Konsequenzen. Sind Reflexionsfähigkeit und Selbstbewusstsein (und sei es auch nur in Ansätzen) vorhanden, darf eine Maschine nicht mehr wie eine Sache behandelt werden – sie wird, ethisch gesehen, zum Menschen. Vergleichbar ist dieses Problem mit der Diskussion um die Entwicklung des Bewusstseins von Embryonen im Zuge der Abtreibungsdebatte.
Doch vielleicht ist die Sache noch viel komplizierter. Was ist davon zu halten, wenn der Schöpfer der KI sie gerade unterhalb der Grenze zum Bewusstsein, zur Individualität hält? Eine Maschine erschafft, die zwar denken, lernen, spontan oder sogar menschenähnlich reagieren kann, aber keinen Zugang zu höherer Erkenntnis oder Selbstreflexion hat? Auch die Figur Pirx fühlt bei diesem Gedanken eine leichte Beklemmung: „Es lag eine perverse Raffinesse in jener maßvollen Vernunft, mit der der Mensch das über sich selbst erworbene Wissen den kalten Maschinen einhauchte und dabei aufpasste, dass sie nur gerade so viel Bewusstheit bekamen wie erforderlich, ohne Aussicht darauf, ihrem Schöpfer jemals die Herrlichkeiten der Welt streitig machen zu können.“ Ist es also unethisch, einer KI die Möglichkeit zum „Erkenne dich selbst!“ zu verwehren? Auch ein menschlicher Säugling besitzt diese Fähigkeit nicht, doch besorgt das natürliche Wachstum die entsprechende Entwicklung von ganz allein. Eine Maschine jedoch ist dem Willen ihres Schöpfers ausgeliefert – daher hat dieser auch eine besondere Verantwortung ihr gegenüber. Offen bleibt, wie genau diese Verantwortung aussehen soll und wie weit ein Eingriff in die Entwicklung einer KI gehen darf. Pirx bemerkt dazu: „Die Automaten wurden in ihrer Existenz nicht benachteiligt oder ausgebeutet – die Sache war einfacher, moralisch schwerer anfechtbar und schlimmer zugleich.“
Wie man sieht, sind die von Stanisław Lem vor über 50 Jahren angeschnittenen Themen noch immer aktuell, wie man auch an der aktuellen Debatte zu selbstfahrenden Autos sehen kann. Mit der möglichen Konstruktion einer „zweiten Maschine“ stößt der Mensch das Tor zu großartigen Potenzialen auf; gleichzeitig ergeben sich jedoch neue, existenzielle Probleme, die unser Selbstbild, unseren Begriff des „Menschlichen“ tief erschüttern könnten. Mag sein, dass Homo Sapiens, der „verständige Mensch“, dadurch zum Homo Deus wird – doch weiß er auch, was er tut?
- Stanisław Lem: Pilot Pirx. Aus dem Polnischen von Roswitha Buschmann, Kurt Kelm, Caesar Rymarowicz und Barbara Sparing. Berlin: Suhrkamp-Verlag 2003. 548 Seiten, 12,99 Euro.
- Ein Blick in die Maschinenseele? Die Illustrationen zu diesem Artikel wurden nicht von einem Menschen, sondern von einer KI angefertigt. Die Applikation „NightCafé Creator“ kann zwar nicht wirklich denken, aber immerhin anhand vorgegebener Begriffe und Stilrichtungen einzigartige Bilder kreieren.