Künstliche Intelligenz ist ein eben­so fas­zi­nie­ren­des wie schwie­ri­ges Problem der Philosophie. Der pol­ni­sche Science-Fiction-Autor und Philosoph Stanisław Lem beschäf­tig­te sich schon in den 60er Jahren mit der Frage, wie der Mensch mit den­ken­den Maschinen umge­hen soll. Doch wie aktu­ell sind sei­ne Überlegungen noch? Eine Analyse. 

„Was ist er schon? Ein Stromkreis in einem eiser­nen Kasten, wei­ter nichts … Ein leben­des Wesen wäre doch damals in dem fins­te­ren, zer­stör­ten Raumschiff zugrun­de gegan­gen … Bestimmt, ganz bestimmt …“ 

Schon seit der Herstellung des ers­ten Faustkeils schuf der Mensch Werkzeuge und Hilfsmittel, um sich das Leben zu erleich­tern. Der Philosoph Gotthard Günther nann­te die­se Art von Objekten, wel­che die Funktion des mensch­li­chen Körpers nach­ah­men, die „ers­te Maschine“. Vom Schmiedehammer zum Verbrennungsmotor folg­ten alle mensch­li­chen Konstruktionen die­sem Prinzip. Nun, im Zeitalter des Transistors, eröff­net sich jedoch eine neue Möglichkeit: Die Konstruktion der „zwei­ten Maschine“, eines Objekts, das mensch­li­che Gedanken zu repro­du­zie­ren imstan­de ist. Der Höhepunkt die­ser Entwicklung wäre sicher­lich die Erschaffung einer künst­li­chen Intelligenz (KI) – die Erfüllung eines der ältes­ten Träume der Menschheitsgeschichte. Beginnend mit den alt­grie­chi­schen Mythen von Pandora und Talos über Goethes Beschreibung des Homunculus in „Faust“ bis hin zu den Robotergeschichten Isaac Asimovs: Der Mensch war schon immer von der Erschaffung eines künst­li­chen Wesens „nach sei­nem Bilde“ fas­zi­niert. In gewis­ser Weise wür­de die Schöpfung einer KI das Ende der Entwicklung vom Homo Sapiens zum Homo Deus, dem „gött­li­chen Menschen“ mar­kie­ren – denn nur ein Gott hat Macht, den­ken­de und sich selbst bewuss­te Lebewesen zu erschaffen. 

Die unge­klär­ten Fragen und phi­lo­so­phi­schen Abgründe der Beziehung von Mensch und „zwei­ter Maschine“ spie­len in Stanisław Lems 1968 erschie­ne­ner Kurzgeschichtensammlung „Pilot Pirx“ eine wich­ti­ge Rolle. Die namens­ge­ben­de Hauptfigur ist ein Raumschiffpilot, der in nicht all­zu fer­ner Zukunft sei­nen Dienst in den Weiten des Sonnensystems ver­rich­tet und dabei immer wie­der in haar­sträu­ben­de, rät­sel­haf­te und gefähr­li­che Situationen gerät. 

Echo einer Katastrophe 

Eines Tages bekommt Pirx den Auftrag, ein altes Frachtraumschiff zum Mars zu flie­gen – im Grunde eine etwas undank­ba­re Routineaufgabe. Neben der ange­heu­er­ten Mannschaft befin­det sich auch ein Roboter mit der Bezeichnung „Terminus“ an Bord, der für schwe­re Arbeiten am Reaktor ein­ge­setzt wird. Pirx ist weder von dem stark ram­po­nier­ten Raumschiff noch vom lang­sa­men und ver­al­te­ten Maschinenhelfer son­der­lich begeis­tert. Zu allem Überfluss stellt sich auch noch her­aus, dass der Frachter schon bereits eine Havarie hin­ter sich hat und nach der Beschädigung durch Meteoriten 16 Jahre lang im All trieb, bevor er wie­der­ge­fun­den und repa­riert wur­de. Die dama­li­ge Besatzung war, durch Trümmer von­ein­an­der abge­schnit­ten, lang­sam zugrun­de gegan­gen, bis der Sauerstoff auf­ge­braucht war. Überstanden hat­te die­ses Unglück nur der Arbeitsroboter – Terminus. 

Trotz die­ser wenig erhe­ben­den Vorgeschichte macht sich Pirx auf den Weg zum roten Planeten; zunächst ver­läuft der Flug recht ereig­nis­los, nur unter­bro­chen von Routinearbeiten und gele­gent­li­chen Reparaturen der alters­schwa­chen Maschinen. Eines Nachts jedoch wird Pirx von unheim­li­chen Geräuschen aus dem Schlaf geris­sen: Es sind Morse-Klopfzeichen, die durch Rohrleitungen im gan­zen Schiff zu hören sind. Beunruhigend ist, dass die­se Signale offen­bar von den hava­rier­ten, nun jedoch schon lan­ge toten Besatzungsmitgliedern zu stam­men schei­nen – ver­zwei­felt um Antwort bit­tend, um Hilfe und Sauerstoff fle­hend. Nach lan­ger Suche stellt Pirx fest, dass die Klopfzeichen von Terminus stam­men, der mit Ausbesserungen am Reaktor beschäf­tigt ist und dabei anschei­nend unter­be­wusst die letz­ten Signale der toten Mannschaft wie­der­gibt. Darauf ange­spro­chen reagiert der Roboter (ohne­hin nur zu rudi­men­tä­rer Kommunikation fähig) völ­lig ver­ständ­nis­los; er scheint nicht zu begrei­fen, was er tut. 

In den fol­gen­den Nächten setzt sich die Klopfkaskade fort; abge­se­hen von einer irra­tio­na­len Suche nach der Schiffskatze zeigt Terminus sonst aber kein abnor­mes Verhalten. Als Pirx schließ­lich mit sei­ner Geduld (und den Nerven) am Ende ist, beschließt er, Terminus sei­ner­seits mit Klopfzeichen zu ant­wor­ten. Auf die­se Veränderung reagiert der Roboter jedoch uner­war­tet: Anstatt mit den Signalen fort­zu­fah­ren oder auf­zu­hö­ren, kommt die Frage „W‑e-r-s-p-r-i-c-h-t-w-e-r-s-p-r-i-c-h‑t“ zurück – Pirx sieht sich den hek­ti­schen, ver­zwei­felt fra­gen­den Stimmen von seit 19 Jahren toten Raumfahrern gegen­über. Verstört bricht er den Versuch ab; Terminus fährt äußer­lich unge­rührt mit sei­nen pro­gramm­ge­mä­ßen Wartungsarbeiten fort. 

Wieder in sei­ner Kabine grü­belt Pirx über das Erlebte nach. Terminus ist nicht dar­auf pro­gram­miert, Geräusche auf­zu­zeich­nen und wie­der­zu­ge­ben, repro­du­ziert jedoch immer wie­der die letz­ten Tage der ster­ben­den Besatzung, ant­wor­tet sogar auf Input von außen. Hat der Roboter die Persönlichkeiten der Toten irgend­wie in sich auf­ge­nom­men, könn­te Pirx sich mit ihnen sogar unter­hal­ten? Oder hat Terminus in all den Jahren, ein­ge­klemmt zwi­schen Trümmern in einem umher­trei­ben­den Raumschiffwrack, eine Art rudi­men­tä­rer Persönlichkeit ent­wi­ckelt, die nun unter­be­wusst zum Vorschein kommt? Ist der Schrecken, das Flehen nach Hilfe, das Pirx’ Einmischung her­vor­ge­ru­fen hat, nur eine Imitation oder der Ausdruck eines Bewusstseins? Am Ende beschließt der Pilot, die­sen Fragen nicht wei­ter auf den Grund zu gehen; er ist sich sicher, nie befrie­di­gen­de Antworten dar­auf fin­den zu kön­nen. Terminus, so sei­ne Anordnung, soll indes bei nächs­ter Gelegenheit ver­schrot­tet werden. 

Zauberlehrlinge der Zukunft? 

Die Frage nach der Natur des Bewusstseins ist nicht erst von der moder­nen Forschung auf­ge­wor­fen wor­den. Bereits im anti­ken Griechenland beschäf­tig­ten sich gro­ße Denker mit den Worten, die über dem Eingang des Orakels von Delphi zu lesen waren: „Erkenne dich selbst!“ Im 20. und 21. Jahrhundert bezieht sich dies nicht mehr nur auf den Menschen, son­dern auch auf die von ihm geschaf­fe­nen künst­li­chen Intelligenzen. Kann die „zwei­te Maschine“ ein Bewusstsein haben? Stanisław Lem ist die­ser Frage wohl am prä­gnan­tes­ten nach­ge­gan­gen; die Kurzgeschichte „Terminus“ rührt an den Grundfesten des mensch­li­chen Geistes. Was macht eine Person eigent­lich aus? Inwiefern unter­schei­det sie sich von einem ledig­lich pro­gram­mier­ten Automaten? Der Roboter Terminus ist eigent­lich nur zum Ausführen pro­gram­mier­ter Befehle kon­stru­iert; den­noch reagiert er aktiv auf Pirx’ Klopfen und for­mu­liert eigen­stän­di­ge eine Frage. Solch ein unab­hän­gi­ges Handeln deu­tet nor­ma­ler­wei­se auf die Existenz eines Bewusstseins hin. 

Hier kommt erschwe­rend dazu, dass es dem Menschen grund­sätz­lich unmög­lich ist, Bewusstsein zu pro­gram­mie­ren. Das Problem: Die ver­wen­de­te Programmiersprache muss kom­ple­xer sein als die Sprache, in der der Roboter dann tat­säch­lich „denkt“. Für ein zur Selbstreflexion fähi­ges Bewusstsein not­wen­di­ge Begriffe wie „Ich“ oder „Selbst“ sind aller­dings para­dox – es gibt kei­ne noch kom­ple­xe­re Sprachebene, auf die sie sich bezie­hen könn­ten. Das bedeu­tet kon­kret: Wenn ein Roboter in einer Sprache den­ken soll, die Begriffe wie „Ich“ oder „Selbst“ als logisch rele­van­te Elemente betrach­tet, gibt es kei­ne höhe­re Metasprache mehr, in der man die Software des Roboters selbst schrei­ben könnte. 

Zur Lösung die­ses fun­da­men­ta­len Problems hat sich die kyber­ne­ti­sche Forschung in den letz­ten Jahren ver­stärkt selbst­ler­nen­den Programmen zuge­wandt. Die Fähigkeit, die eige­ne Programmierung ver­än­dern zu kön­nen, ist die Grundbedingung für die Entwicklung eines Bewusstseins; auch unse­re Gehirne – gewis­ser­ma­ßen bio­lo­gi­sche Computer – funk­tio­nie­ren im Grunde nicht anders. Diesen Pfad der Selbst-Veränderung ein­zu­schla­gen könn­te völ­lig unge­ahn­te Folgen haben. Die Erschaffung einer wah­ren „zwei­ten Maschine“ käme dann für uns selbst uner­war­tet, nicht kon­trol­liert durch eine vor­ge­fer­tig­te Programmierung. Lem stellt mit­hil­fe des Klopfsignale pro­du­zie­ren­den Terminus die ent­schei­den­de Frage: Sind wir auf alles vor­be­rei­tet, zu dem sich unse­re Maschinenschöpfung entwickelt? 

Allzu menschlich 

Vor eine ähn­li­che Frage sieht sich Pirx bei einer ande­ren Mission gestellt: Zusammen mit zwei Wissenschaftlern und einem fort­schritt­li­chen, „nicht­li­nea­ren“ Roboter namens Aniel soll er einen frem­den Gesteinsplaneten erkun­den. Die geo­lo­gi­sche Routinemission ist fast been­det, und der Tag der Abreise rückt näher, als Aniel von einem Auftrag nicht mehr zurück­kehrt. Die drei Menschen bege­ben sich auf die Suche nach dem Roboter und fin­den sei­ne wis­sen­schaft­li­che Ausrüstung am Fuß einer Felswand. Von der Maschine selbst ist kei­ne Spur zu sehen. Völlig rat­los will man die Suche schon auf­ge­ben, als Pirx mit­hil­fe eines Messgerätes Aniels schwa­che Spur ortet – an der Felswand. Offenbar ist der Roboter nach Erledigung sei­nes Auftrags nicht direkt zum Lager zurück­ge­kehrt, son­dern die Wand hin­auf­ge­klet­tert. Pirx und einer sei­ner Kollegen fol­gen der Spur mit­hil­fe ihrer Bergsteigerausrüstung. Nach einer äußerst gefähr­li­chen Kletterpartie endet die Spur an einem Felsspalt; in der Tiefe unter sich ent­deckt Pirx eini­ge Metallteile. Wieder unten ange­kom­men fin­den die Menschen nur noch zer­stör­te Überreste vor; der Roboter war anschei­nend nach dem miss­lun­ge­nen Sprung über die Spalte hinuntergestürzt. 

Was die Maschine zu die­sem offen­bar völ­lig irra­tio­na­len Verhalten ver­an­lasst hat, bleibt ein Rätsel. Pirx’ Kollegen sind fest davon über­zeugt, dass der Roboter eine Fehlfunktion hat­te; Pirx selbst jedoch ist ande­rer Meinung. Er glaubt, dass Aniel die Herausforderung einer Kletterpartie gereizt hat, ein Gefühl, das auch er beim Anblick des Felsmassivs ver­spür­te. Zwar wür­den Kybernetiker kate­go­risch das Vorhandensein von Emotionen aus­schlie­ßen und ledig­lich von pro­ba­bi­lis­ti­schen Prozessen spre­chen, von einer gewis­sen „Spontanität“ nicht­li­nea­rer Roboter. Doch beweist Aniels Verhalten für Pirx, dass man die Sache nicht so ein­fach betrach­ten kann: „Hatte er selbst, Pirx, viel­leicht einen Defekt gehabt, als er unbe­dingt die Wand bezwin­gen woll­te? Aniel war sei­nen Konstrukteuren ganz ein­fach ähn­li­cher gewe­sen, als die­se zuzu­ge­ben bereit waren.“  

Der Roboter, unser Mitmensch? 

Die von Lem hier auf­ge­wor­fe­ne Frage ist äußerst pro­ble­ma­tisch: Wie mensch­lich darf eine KI wer­den, bevor ihr mensch­li­cher Schöpfer ihre Entwicklung hemmt? Seine nicht­li­nea­ren Roboter haben eine men­schen­ähn­li­che Form, wei­sen zuwei­len Anzeichen unbe­re­chen­ba­ren Verhaltens auf oder ent­wi­ckeln klei­ne Marotten und Eigenheiten. Setzt man die tech­ni­sche Entwicklung und die Experimente mit selbst­ler­nen­den Maschinen vor­aus, ist eine sol­che Entwicklungsstufe kei­ne rei­ne Utopie mehr. Doch ab einem gewis­sen Punkt hört ein Roboter (tsche­chisch: Arbeiter) auf, ein ein­fa­cher Roboter zu sein. Diesen Punkt zu bestim­men ist schwie­rig, doch ist er ein­mal erreicht, erge­ben sich dar­aus gra­vie­ren­de ethi­sche Konsequenzen. Sind Reflexionsfähigkeit und Selbstbewusstsein (und sei es auch nur in Ansätzen) vor­han­den, darf eine Maschine nicht mehr wie eine Sache behan­delt wer­den – sie wird, ethisch gese­hen, zum Menschen. Vergleichbar ist die­ses Problem mit der Diskussion um die Entwicklung des Bewusstseins von Embryonen im Zuge der Abtreibungsdebatte. 

Doch viel­leicht ist die Sache noch viel kom­pli­zier­ter. Was ist davon zu hal­ten, wenn der Schöpfer der KI sie gera­de unter­halb der Grenze zum Bewusstsein, zur Individualität hält? Eine Maschine erschafft, die zwar den­ken, ler­nen, spon­tan oder sogar men­schen­ähn­lich reagie­ren kann, aber kei­nen Zugang zu höhe­rer Erkenntnis oder Selbstreflexion hat? Auch die Figur Pirx fühlt bei die­sem Gedanken eine leich­te Beklemmung: „Es lag eine per­ver­se Raffinesse in jener maß­vol­len Vernunft, mit der der Mensch das über sich selbst erwor­be­ne Wissen den kal­ten Maschinen ein­hauch­te und dabei auf­pass­te, dass sie nur gera­de so viel Bewusstheit beka­men wie erfor­der­lich, ohne Aussicht dar­auf, ihrem Schöpfer jemals die Herrlichkeiten der Welt strei­tig machen zu kön­nen.“ Ist es also unethisch, einer KI die Möglichkeit zum „Erkenne dich selbst!“ zu ver­weh­ren? Auch ein mensch­li­cher Säugling besitzt die­se Fähigkeit nicht, doch besorgt das natür­li­che Wachstum die ent­spre­chen­de Entwicklung von ganz allein. Eine Maschine jedoch ist dem Willen ihres Schöpfers aus­ge­lie­fert – daher hat die­ser auch eine beson­de­re Verantwortung ihr gegen­über. Offen bleibt, wie genau die­se Verantwortung aus­se­hen soll und wie weit ein Eingriff in die Entwicklung einer KI gehen darf. Pirx bemerkt dazu: „Die Automaten wur­den in ihrer Existenz nicht benach­tei­ligt oder aus­ge­beu­tet – die Sache war ein­fa­cher, mora­lisch schwe­rer anfecht­bar und schlim­mer zugleich.“ 

Wie man sieht, sind die von Stanisław Lem vor über 50 Jahren ange­schnit­te­nen Themen noch immer aktu­ell, wie man auch an der aktu­el­len Debatte zu selbst­fah­ren­den Autos sehen kann. Mit der mög­li­chen Konstruktion einer „zwei­ten Maschine“ stößt der Mensch das Tor zu groß­ar­ti­gen Potenzialen auf; gleich­zei­tig erge­ben sich jedoch neue, exis­ten­zi­el­le Probleme, die unser Selbstbild, unse­ren Begriff des „Menschlichen“ tief erschüt­tern könn­ten. Mag sein, dass Homo Sapiens, der „ver­stän­di­ge Mensch“, dadurch zum Homo Deus wird – doch weiß er auch, was er tut? 

  • Stanisław Lem: Pilot Pirx. Aus dem Polnischen von Roswitha Buschmann, Kurt Kelm, Caesar Rymarowicz und Barbara Sparing. Berlin: Suhrkamp-Verlag 2003. 548 Seiten, 12,99 Euro.
  • Ein Blick in die Maschinenseele? Die Illustrationen zu die­sem Artikel wur­den nicht von einem Menschen, son­dern von einer KI ange­fer­tigt. Die Applikation „NightCafé Creator“ kann zwar nicht wirk­lich den­ken, aber immer­hin anhand vor­ge­ge­be­ner Begriffe und Stilrichtungen ein­zig­ar­ti­ge Bilder kreieren. 
5 2 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

0 Comments
Inline Feedbacks
View all comments