Forum 105: Wie umgehen mit der Einführung von ChatGPT?

Liebe Freundinnen, liebe Freunde des Forums,

auf der Tagesordnung des zurückliegenden Treffens stand das neueste Produkt transhumanistischer Technik: ChatGPT. Es ist seit kurzem auf Handys, Laptops oder PCs für die breite Öffentlichkeit verfügbar und benutzbar, von den einen als Bereicherung der Alltagskommunikation begrüßt, von anderen abgelehnt, weil es die Ausbildung eigenen Denkens durch Maschinen ersetze. Frage ist also, was ChatGPT ist und wie damit umgegangen werden kann. Machen wir ein kleines Experiment:   

Wer ChatGPT auf seinem Handy, Laptops oder PC aufruft, wird von der Formel begrüßt: „Hallo Mensch, ich bin ein GPT-betriebener AI-Chatbot. Frag mich alles.“ Auf die Frage, wer das „Ich“ ist, das den Nutzer mit der Anrede „Mensch“ derart jovial anspricht, antwortet dieses „Ich“: „Hallo! ChatGPT ist ein fortschrittliches KI-Modell, das entwickelt wurde, um menschenähnliche Konversation zu führen.  Es basiert auf der GPT-3-Architektur und verwendet maschinelles Lernen, um auf Fragen und Anfragen zu antworten.  Es ist darauf ausgelegt, natürliche Sprache zu verstehen und kontextbezogene Antworten zu generieren. Bitte beachte jedoch, dass ich ein AI-Assistent bin und meine Antworten auf vorherigem Training basieren.“

Auf nochmalige Nachfrage zum „Ich“ präzisiert das Programm:

„‘Ich‘ bezieht sich normalerweise auf die eigene Person, also die Person, die spricht oder schreibt. Es ist ein Pronomen, das verwendet wird, um sich selbst zu bezeichnen. Es kann auch verwendet werden, um sich auf eine andere Person zu beziehen, wenn man über sich selbst spricht. ‚Ich‘ ist ein Ausdruck der individuellen Identität und Selbstwahrnehmung.“

Und schließlich werden die Nutzer vom Programm auch bereitwillig aufgeklärt, was sie unter der „KI“, auf der sein „Ich“ basiere, zu verstehen haben:

„KI steht für künstliche Intelligenz. Es handelt sich um ein Teilgebiet der Informatik, das sich mit der Entwicklung von Systemen und Programmen befasst, die in der Lage sind, menschenähnliche Intelligenz und kognitive Fähigkeiten zu imitieren oder zu simulieren.

Das Ziel der künstlichen Intelligenz ist es, Maschinen und Computern die Fähigkeit zu geben, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern würden. Dazu gehören beispielsweise das Lernen, das Problemlösen, das Verstehen natürlicher Sprache, das Erkennen von Bildern und Mustern, das Planen und Entscheiden sowie das Anpassen an neue Situationen.

Es gibt verschiedene Ansätze und Techniken in der künstlichen Intelligenz, darunter maschinelles Lernen, neuronale Netze, Expertensysteme, natürliche Sprachverarbeitung und Robotik. KI findet Anwendung in vielen Bereichen wie der Medizin, der Automobilindustrie, der Finanzwelt, der Robotik, der Spracherkennung und -übersetzung, der Bilderkennung und vielen anderen.

Es ist wichtig anzumerken, dass KI-Systeme auf Algorithmen und Daten basieren und keine tatsächliche menschliche Intelligenz oder Bewusstsein besitzen. Sie können jedoch komplexe Aufgaben automatisieren und Muster erkennen, um nützliche Informationen und Erkenntnisse zu liefern.“

Soweit also kein Problem? Keine Verwechslungen zwischen „Mensch“ und Maschine“ zu befürchten? Oder verbergen sich hinter dieser eingängigen Fassade, die nützliche Alltagshilfe verspricht und die so harmlos ausgewogen, geradezu „selbstkritisch“ daherkommt, vielleicht doch Tendenzen, die genauer zu hinterfragen sind und vor denen wir uns hüten müssen?

Da stellt sich als Erstes die Frage: Müssen wir uns von einer Maschine von Du zu Du als Ich ansprechen lassen? Werden da nicht grundlegende Kategorien des Menschseins in nachhaltiger Weise verschoben? Was ist von der Auskunft des Programms zu halten, dass das Ich, dass die Maschine richtig als „Ausdruck der individuellen Identität und Selbstwahrnehmung“ beschreibt, sich „normalerweise“ auf die eigene Person beziehe? Tritt uns mit ChatGTP der Anspruch auf ein Ende dieser Normalität entgegen? Ein „Ich“ ohne Selbstwahrnehmung und ohne Identität, das aber den Anspruch stellt, ein Ich zu sein?

Des Weiteren: Worauf wird die „Kommunikation“ des Programms „trainiert“, wenn die ihr zugrunde liegende „KI“ dafür eingerichtet wird, „menschenähnliche Intelligenz und kognitive Fähigkeiten zu imitieren oder zu simulieren.“? Kann aus Imitation und Simulation menschlicher Intelligenz etwas anderes Hervorgehen als die Fortschreibung bisherigen Wissens, selbst bei unendlicher Kombination der einmal gesammelten Daten?

Dankenswerterweise erklärt das Programm „selbst“ auf eine Frage nach dem Wetter von Morgen, es könne keine Prognosen abgeben, dafür solle man sich an den Wetterdienst wenden. Auch auf schärfere Fragen wie die nach dem möglichen Ausgang des gegenwärtigen Krieges in der Ukraine gibt das Programm – bis auf die „Ich“-Anmaßung – korrekt, aber ebenso nichtssagend wie bei der Frage nach dem Wetter, Auskunft mit einem gestanzten Satz wie diesem: „Als AI-Assistent kann ich keine Vorhersagen über die Zukunft machen. Der Ukrainekrieg ist ein komplexes geopolitisches Thema, das von vielen Faktoren beeinflusst wird. Es gibt verschiedene mögliche Szenarien und Ergebnisse, die von politischen Entscheidungen, internationalen Beziehungen und anderen Faktoren abhängen. Es ist wichtig, aktuelle Nachrichten und Analysen zu verfolgen, um sich über die Entwicklungen auf dem Laufenden zu halten.“

Solche Auskünfte könnte man maßvoll nennen, insofern sie den Rahmen des Bekannten nicht überschreiten, genau betrachtet, leere Worthülsen sind, und sich beruhigt zurücklehnen. Aber es bleibt die generelle Frage, welche Durchschnittswerte aus der bloßen Kombination bisheriger Daten auf dem Stand gültigen, schärfer gesprochen herrschenden Wissens unter Aussonderung von Besonderheiten von der Maschine gewonnen und ausgegeben werden. Da öffnen sich in der Auswahl der verwandten Daten gigantische Schleusen der Manipulation für die Betreiber solcher Programme, sagen wir salopp, Möglichkeiten eines von der „trainierten“ Maschine auf die Gesellschaft rückwirkenden „Trainings“. Das gilt nicht nur für ChatGPT, sondern für alle vergleichbaren Programme wie Llama, Bard und alle, die ChatGPT mit Sicherheit folgen werden. Das Zukunftsbild, das sich daraus bei massenhafter Nutzung solcher Programme ergibt, ist monströs.

Hier angekommen, öffnet sich die ganze Dimension der heutigen Zivilisationskrise als einer ins Dystopische wachsenden Herrschaft des immer extremer anwachsenden toten Kapitals einschließlich seines Verwaltungsapparates über die lebendige Arbeit oder einfacher gesagt, der Maschine über den Menschen, insonderheit der digitalisierten Kriegsmaschinerie; das ist nicht zuletzt die atomare, deren Kontrolle durch den Menschen bei extrem schrumpfenden Vorwarnzeiten ohne „KI“ schon jetzt kaum noch möglich ist. Schärfer gesprochen, hängt die Kontrolle der Vernichtungsmaschine in zunehmendem Maße von einem fehlerfreien, Funktionieren der „KI“ ab. Die Fehlerfreiheit ist aber nicht garantiert, nicht zuletzt deshalb nicht, weil die „KI“ in ihrer Bilderkennung (Verwechslung von Wolken mit festen Gegenständen, etwa Raketen u.a.), unter Umständen „halluziniert“, wie die Vergangenheit gezeigt hat. „Sicherheits“experten sprechen hier unumwunden von „Risiken eines Atomkriegs aus Versehen“ – das ist schon mehr als ein Tanz auf dem Vulkan.

Bei diesem Blick in den Abgrund stellt sich wieder einmal die Frage: Was tun? Können wir, kann der einzelne Mensch überhaupt noch etwas gegen den Lauf dieser Entfremdung des Menschen von sich selbst unternehmen? Die Antwort kann nur ein trotziges „Ja“ sein, „Eben deswegen!“ Eben weil eine Nivellierung lebendigen menschlichen Austausches auf das technisch Normierte droht, eben weil Kommunikation auf ein Mittelmaß hin normiert wird, ist es nötig, solchen Instrumenten wie ChatGPT zwar ihren Platz als nützliche Helfer zuzuweisen, nicht anders als einem Lexikon, im Übrigen aber das lebendige Gespräch, den lebendigen geistigen und emotionalen Austausch in den Mittelpunkt des sozialen Lebens zu rücken.

Wir treffen uns am 03.09.2023 um 14.00 Uhr

wie gewohnt mit ein bisschen zum Knabbern und trotziger guter Laune

 

Seid herzlich gegrüßt

Kai Ehlers, Christoph Strässner