Instrumente des Heiligen

Künstliche Intelligenz und Weisheitskultur

 

 

 

 

 

 

 

 

 

 

 

 

 

Thomas Steininger

Mit den neuen KI-Chatbots sind kraftvolle Instrumente entstanden, die zeigen, wozu eine selbstlernende Künstliche Intelligenz fähig sein kann. Vor allem, wenn sie sich exponentiell weiterentwickelt und selbst lernt. Dann ist die entscheidende Frage, worauf wir dieses Instrument ausrichten.

Die Katze ist aus dem Sack. Am 30. November des letzten Jahres brachte die Firma OpenAI ChatGPT auf den Markt, einen Chatbot vom Typ »Large Language Model» (LLM). Dieser Chatbot schreibt Schulaufsätze. Er kann Ihren Urlaub in Griechenland planen. Oder er zeigt Ihnen den wahrscheinlichen Mietpreis einer Wohnung in einer bestimmten Straße in Wien an. Wollen Sie eine medizinische Diagnose in einfache Sprache übersetzt bekommen? Oder braucht Ihr Unternehmen eine Online-Marketingstrategie? Für jede dieser Aufgaben braucht der Chatpot nicht mehr als 30 Sekunden. Ich war verblüfft und erstaunt, als ich meine ersten Fragen stellte und die Antworten in Sekundenschnelle in wohlgeformten Sätzen auf meinem Bildschirm erschienen. Dann wurde ich kühn. Ich fragte: »Was war zuerst da, das Huhn oder das Ei?« Nach mehreren Einwänden meinerseits, brachte ich den Chatbot sogar dazu, seine Meinung zu ändern. 

Diese neue Art von KI kann so vieles tun, zu dem bisher nur menschliche Experten fähig waren. Ja, sie produziert auch immer wieder »Bullshit«, aber eben sehr oft auch das Gegenteil. ChatGPT ahmt die Art und Weise nach, wie wir denken und sprachlich interagieren. Aber es denkt nicht wirklich und geht auch manchmal völlig am Thema vorbei. Diese KI hat auch keine Subjektivität. Sie hat einfach Zugriff auf das im Internet aufgezeichnete Wissen, das die Menschheit geschaffen hat, sie manipuliert und synthetisiert es und ordnet die Worte und Sätze nach Wahrscheinlichkeitsregeln neu an. Aber die Ergebnisse sind verblüffend. Das ist nicht die Fortsetzung einer bekannten Technologie. Das ist ein Sprung in eine völlig neue Welt. Diese Bots lernen aus eigenem Antrieb – sie verfügen über ein gewisses Maß an Handlungsfähigkeit und Selbststeuerung. Nur, hier ist kein Gewissen am Werk, kein Innenleben, kein eigenes Interesse, schon gar nicht Verletzlichkeit und natürlich auch keine Liebe. Es sind Algorithmen, und jeder kann sie für jeden Zweck verwenden. 

Die Katze ist also wirklich aus dem Sack, und diese neuen Katzen vermehren sich schnell. Meine anfängliche Neugierde für und Faszination über das neue Spielzeug trübten sich bald ein. Werden jetzt viele Beratungsberufe, auch Mediziner und Juristinnen arbeitslos? Die Welt steht auf der Kippe. Selbst die Einführung des Internets war im Vergleich dazu eine Kleinigkeit. Welche Lawine kommt hier auf uns zu? Wird sie die globale Sinnkrise weiter verschärfen? Wenn unsere Kinder von dieser Maschine andauernd mit Antworten auf alles gefüttert werden, wie sollen sie dann die Grundlagen ihres Geistes und ihrer Seele entwickeln? Was wird es in Zukunft bedeuten, Mensch zu sein? 

Die Sozialpsychologin Shoshana Zuboff argumentiert, dass uns die KI zu einem weiteren großen Aussterben führt: zum Aussterben des menschlichen Geistes. Was macht die künstliche Intelligenz mit dem menschlichen Geist? Und wie können diejenigen von uns, die sich Gedanken über eine neue Bewusstseinskultur, über das soziale Gleichgewicht auf diesem Planeten, über die »mehr als menschliche Welt« machen, auf die Gefahren dieser Technologie und ihr Potenzial antworten? 

Reflexion und Ausrichtung 

Beim Nachdenken über die neuen Fähigkeiten von ChatGPT und den anderen LLMs kam mir ein Bild in den Sinn, durch welches für mich offensichtlicher wurde, was diese neue Form von KI eigentlich macht. Sie kennen vielleicht Parabolspiegel, die das Licht mit ihrer gekrümmten Innenfläche zurückwerfen und so einen konzentrierten Lichtstrahl erzeugen. Stellen Sie sich einen kolossalen Reflektor vor – riesig wie die Satellitenschüsseln, die das Universum nach Anzeichen von Leben absuchen –, der alle Impulse, Gedanken Schöpfungen der gesamten menschlichen Kultur und Geschichte aufnimmt, soweit sie irgendwo im Internet gespeichert sind, der sie bündelt und in zugänglicher Form an uns zurückspiegelt. 

Diese KI erschafft nichts Neues. Sie hat die Fähigkeit, Muster in riesigen Datenmengen zu synthetisieren, zu erkennen und sie uns dann in zugänglicher Form zu präsentieren. Die LLMs machen Beziehungen und Wahrscheinlichkeiten sichtbar, die im Internet abgespeichert wurden, die aber zu komplex sind, um für uns sichtbar zu sein. Man könnte sagen, sie schaffen einen Einblick in die Noosphäre, die der evolutionäre Mystiker Teilhard de Chardin entstehen sah – jene Wissensschicht, die sich entwickelt, wenn menschliche Aktivitäten zunehmend global koordiniert werden. 

Aber was zu uns zurückreflektiert wird, hängt davon ab, auf was sich der Parabolspiegel ausrichtet. Das hängt wiederum davon ab, welche Algorithmen verwendet werden und wie sich diese Algorithmen entwickeln, wenn die KI mit neuen Informationen interagiert und selbst lernt. So waren die Techniker beispielsweise überrascht, als die Chatbots von selbst begannen neue Sprachen zu lernen. So kann man sich vorstellen, wie jede KI-Generation der nächsten etwas vermittelt – welche Algorithmen werden ihr also beigebracht und dazu verwendet, um weitere Generationen zu unterrichten? 

Dies wirft die Frage nach der Ausrichtung der künstlichen Intelligenz auf: Wie stellen wir sicher, dass die KI mit ihrer wachsenden Macht und Selbststeuerung das menschliche Leben und die Biosphäre bewahrt und schützt? Wie können wir dafür Sorge tragen, dass ihre Werte und Ziele mit den unseren übereinstimmen? 

Der Philosoph Nick Bostrom hat sich mit dem existenziellen Risiko für komplexes Leben befasst, das durch eine »Fehlanpassung« der KI entsteht. Eines seiner bekanntesten Gedankenexperimente betrifft den »Büroklammer-Maximierer«. Angenommen, eine superintelligente KI, die Zugang zu sämtlichem Wissen aus den Natur- und Ingenieurwissenschaften hat, erhält von einem Büroklammerhersteller den einfachen Befehl, die Produktion von Büroklammern unter Verwendung aller verfügbaren Materialien zu maximieren. Bostrom argumentiert, dass dies zur Zerstörung allen Lebens führen könnte. Die KI könnte mit dem Stahl beginnen, der in der Fabrik zu finden ist und dann den weltweit verfügbaren Stahl verbrauchen. Wenn dieser zur Neige geht, könnte sie versuchen, Eisen und Kohlenstoff zu kombinieren, um Stahl für Büroklammern herzustellen. Da Menschen und andere Lebensformen aus Eisen und Kohlenstoff bestehen, könnte die KI auf die »Idee« kommen, all diese Lebensformen zu »zerlegen«, um Eisen und Kohlenstoff zu bekommen, um Stahl herzustellen und die Produktion von Büroklammern zu maximieren.

Der »Büroklammer-Maximierer« mag zwar ein weit hergeholtes Beispiel sein, aber es zeigt die unbeabsichtigten Folgen von scheinbar einfachen Anweisungen. Bostrom hat ein anderes Beispiel, das noch mehr beunruhigt: Programmieren Sie die KI so, dass sie alle Menschen glücklich macht, mit einem Lächeln im Gesicht. Das mag ein lohnendes Ziel sein, aber unter der Kontrolle und dem Einfluss einer superintelligenten KI, die sich nicht um die Menschen kümmert, ist das Ergebnis vielleicht düster. 

Entscheidend wird es sein, unter welchem Gesichtspunkt uns die künstliche Intelligenz unseren kollektiven Geist zurückspiegeln wird. Wird sie darauf ausgerichtet sein, uns etwas vorzugaukeln oder wird sie darauf ausgerichtet sein, Weisheit und Einsicht zugänglicher zu machen?

 

 

Lesen Sie den kompletten Text in der evolve Ausgabe 40/2023