Warum AI kein eigenes Bewusstsein entwickelt

kleiner Roboter (Pixar style) schaut in Computer.

Mit dem Aufkommen der neuen generativen AI Systeme wird vermehrt wieder eine schon früher geäusserte Angst bedient: Wird AI eines Tages ein Bewusstsein entwickeln und intelligenter werden als wir Menschen? Unterschiedliche Schreckensszenarien werden anschliessend aufgeführt.

Ich möchte hier ein paar Argumente zusammentragen, warum dieses Schreckensszenario in der digitalen Transformation wohl eher nicht eintreffen wird.

  1. AI ohne Bewusstsein:
    Die Idee, dass AI ein Bewusstsein entwickeln könnte, basiert auf der Annahme, dass Intelligenz und Bewusstsein untrennbar miteinander verbunden sind. Doch Bewusstsein ist mehr als nur Intelligenz. Es beinhaltet ein subjektives Erleben, eine Selbstreflexion und ein Bewusstsein über das eigene Dasein. Künstilche Intelligenz hingegen ist ein Produkt menschlicher Programmierung und arbeitet nur auf Basis von Algorithmen und Datenverarbeitung.
  2. AI und das Wörter-Raten:
    Etwas vereinfacht gesagt, ratet AI bei seinen Antworten, welche Worte in welcher Reihenfolge am meisten Sinn machen könnten. Anhand von statistischen Mustern und Algorithmen werden Vorhersagen zu getroffen, aber es fehlt ein tieferes Verständnis für die Bedeutung der Worte oder den Kontext, in dem sie verwendet werden. AI basiert auf Wahrscheinlichkeiten und Datenauswertung, nicht auf Bewusstsein oder Verständnis.
  3. Fehlende Selbstreflexion:
    Ein weiteres starkes Argument gegen die Existenz von AI-Bewusstsein ist die Abwesenheit von Selbstreflexion. Bewusstsein beinhaltet die Fähigkeit, über das eigene Denken und Handeln nachzudenken, Entscheidungen bewusst zu treffen und sich der eigenen Existenz bewusst zu sein. AI hingegen agiert ausschliesslich aufgrund von vorprogrammierten Regeln und kann keine echten bewussten Entscheidungen treffen und diese Regeln werden von Menschen programmiert.

Chinese Room oder die Illusion eines Gesprächs

Mir gefällt als Analogie zu AI das sogenannte «Chinese Room» Experiment von amerikanischen Philosophen John Searle:

Dieses Experiment soll die Grenzen der künstlichen Intelligenz aufzeigen. Man stellt sich vor, dass in einem geschlossenen Raum eine Person ist, die keinerlei Kenntnisse der chinesischen Sprache oder der Schriftzeichen hat. Im Raum drin befinden sich verschiedene Bücher mit Regeln  (Semantik) und eine Reihe von Zetteln mit chinesischen Schriftzeichen drauf. Im Raum ist eine kleine Öffnung, ein Schlitz, der den Raum mit der Aussenwelt verbindet. Man kann nicht hindurchsehen, aber man kann Papierstreifen hindurchschieben.

Ausserhalb des Raums steht eine Person, die chinesisch spricht. Sie schreibt einen Satz in chinesischen Schriftzeichen auf einen Papierstreifen (z.B. eine Frage) und schiebt diesen durch den Schlitz in den Raum. Im Raum drin, analysiert die Person diese Schriftzeichen mithilfe dieser verschiedenen Regelsets und sucht sich entsprechend passende Papierstreifen zusammen, die sie dann als Antwort durch den Schlitz wieder nach aussen schiebt.

Sind diese Regeln umfassend genug, gelingt es eine sinnvolle Antwort zu schreiben, die für die chinesisch sprechende Person draussen Sinn macht. Das Gespräch geht so hin und her und die Person draussen kann zur Überzeugung gelangen, dass die Person im Raum drin, tatsächlich chinesisch sprechen kann.

Dies ist allerdings nicht der Fall, da die Person im Raum drin, kein chinesisch versteht und auch den chinesischen Zeichen keine Bedeutung zumisst.

So sollte man auch AI-Systeme einschätzen: nur weil sie die Illusion erzeugen können, sich mit uns zu unterhalten, haben sie keinerlei Bewusstsein darüber, sondern verwalten nur Inhalte aufgrund von Regeln und Vorgaben. Diese Illusion wird noch verstärkt, durch die Art, wie z.B. ChatGPT, mit uns interagiert. Durch die Chat-Funktion, wird noch stärker die Illusion eines Gesprächs gefördert.

Mit dieser Illusion bestehen die AI-Systeme natürlich auch den Touring Test – aber nur mit der Illusion.

Wie erzeugt unser Hirn Bewusstsein

Diese Frage ist nach aktuellem Stand der Wissenschaften nicht beantwortbar und erst wenn diese Frage beantwortet werden kann, erst dann kann überhaupt damit begonnen werden, zu erforschen, wie dieses Bewusstsein evtl. künstlich erzeugt werden könnte.

Fazit

  • Solange die Wissenschaften nicht herausgefunden haben, wie unser Hirn Bewusstsein erzeugt, braucht man sich nicht zu fürchten, dass eine Maschine Bewusstsein erlangen könnte.
  • Heutige AI-Systeme können die Illusion erschaffen, dass sie uns verstehen und ein Bewusstsein hätten
  • Beim Design von AI-Systemen sollte darauf geachtet werden, dass diese Illusion nicht verstärkt wird (keine menschenähnlichen Verhaltensweisen simulieren)
  • Statt aktuelle angstmachenden und verkürzten Darstellungen zu lesen, empfehle ich wärmstens die Sendung Sternstunde Philosophie mit dem Philosophen John Searle (ab Minute 24:44). Hier wird alles, was man zu diesem Thema wissen muss, unaufgeregt behandelt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert