Sprachmodelle, Wahrhaftigkeit und die soziale Natur des Wissens

Künstliche Intelligenz in einer demokratischen Gesellschaft

Im Rahmen der Veranstaltung Künstliche Intelligenz, 05.10.2023

© NanoStockk / canva.com

Wie sollte KI-Entwicklung in einer demokratischen Gesellschaft ausgestaltet sein? Welche Auswirkungen haben gegenwärtige KI-Entwicklungen auf Demokratie und demokratische Prozesse? Um diese Fragen auszuloten, werde ich mich im Folgenden auf ein jüngeres und viel diskutiertes Beispiel aus der aktuellen KI-Forschung beziehen: nämlich generative Sprachmodelle, die auf Large Language Models (LLMs) beruhen.

Einleitung

Eines der bekanntesten davon ist ChatGPT.

Bevor ich aber zur philosophisch-ethischen Einordnung dieser Sprachmodelle komme, gilt es zunächst herauszuarbeiten, inwiefern philosophische Ethik eigentlich Einschätzungen zu technischen Artefakten liefern kann. Was kann eine ethische Perspektive auf Technologien und insbesondere auf computerisierte, probabilistische Modelle leisten, wie sie uns in Form von Large Language Models und den auf ihnen basierenden Anwendungen ChatGPT und Bard begegnen? Verfügt die philosophische Ethik überhaupt über ein Instrumentarium, mit dem wir diese Modelle und Anwendungen evaluieren, gegebenenfalls kritisieren können – und sogar Aussagen dazu treffen können, wie diese gestaltet werden sollen? Und wann und wie sie eingesetzt werden sollen – und wann nicht? Oder können wir ihre Funktionsweise, ihre Nutzung, ihre Wirkung lediglich beschreiben? Lassen sich Sprachmodelle überhaupt sinnvoll ethisch bewerten?

Einführend werde ich auf Large Language Models als Unterform probabilistischer Modelle, die auf dem Maschinellen Lernen beruhen, eingehen. Anschließend werde ich einige Herausforderungen herausarbeiten, die mit diesen verbunden sind, und welche Perspektiven Technikethik ermöglicht, um diese Herausforderungen zu beschreiben und zu bearbeiten.

Large Language Models als probabilistische Modelle

Im Zentrum der Aufmerksamkeit der Software-Entwicklungen, die unter der Überschrift „Künstliche Intelligenz“ (KI) gefasst werden, stehen aktuell Algorithmen, die neue Bilder oder Texte generieren (wie etwa ChatGPT von OpenAI oder Bard von Google) – und zwar gepromptet (von engl. to prompt veranlassen) durch Eingaben von Nutzer:innen in natürlicher Sprache. Die dabei generierten Texte sind nicht einfach kopiert, sondern werden tatsächlich von diesen Anwendungen in der Interaktion erzeugt.

Chatbots wie ChatGPT beruhen auf Large Language Models. Diese Modelle wurden auf der Grundlage von Milliarden von (zumeist) englischsprachigen Dokumenten entwickelt. In aufwendigen Auswertungs- und Trainingsprozessen wurden mithilfe von Maschinellem Lernen in diesen Dokumenten Muster aufgefunden und erfasst. Diese Muster werden dann über die Chatbots reproduziert. Die Bausteine für die Mustererkennung und -reproduktion sind dabei Buchstabensequenzen (tokens), die in Zahlenwerte transformiert werden. Anschließend wird berechnet, wie sich die Position verschiedener Buchstabensequenzen im Kontext der anderen verhält. Aufgrund der Nähe und Entfernungen zwischen den einzelnen Buchstabensequenzen wird auf diese Weise errechnet, mit welcher Wahrscheinlichkeit eine bestimmte Sequenz auf die nächste folgt.

Die mit diesen Modellen arbeitenden Chatbots verfügen, das dürfte mittlerweile hinreichend bekannt sein, nicht über ein menschliches Sprachverstehen: Sie verstehen weder die Bedeutung dessen, was man als Nutzer:in eingibt, noch was sie anschließend als Text produzieren. Die Texterstellung beruht also nicht auf Textverständnis, sondern auf Mustererkennung und Musterreproduktion.

Die ChatGPT zugrunde liegende Technologie ist nicht grundsätzlich neu. Sie beruht auf den gleichen Grundlagen wie alle Anwendungen, die so Maschinelles Lernen zum Einsatz bringen: sich optimierende Neuronale Netze, die auf der Grundlage einer Vielzahl sich im Trainingsprozess justierender Parameter interne Modelle bilden. Neu jedoch sind die riesigen Datensätze, die beim Training eingesetzt wurden und werden, und die es letztlich ermöglichen, natürlichsprachlich mit der Anwendung zu interagieren und Texte zu produzieren, die (kaum mehr) von Texten zu unterscheiden sind, die ­
Menschen verfasst haben.

Möglich ist dies aufgrund der Auswertung sehr großer Datenkorpora mit Hilfe statistischer Methoden. Während die klassischen Problemlösungsalgorithmen, die etwa vom schriftlichen Rechnen bekannt sind, bei korrekter Anwendung notwendig zur Lösung führen, liefern prädiktive, statistisch arbeitende Algorithmen wahrscheinliche Outputs: Das Ergebnis kann stimmen – oder auch nicht. Es hat eine hohe Wahrscheinlichkeit, ist aber nicht wahr.

Wichtig ist darüber hinaus noch, dass alle von ChatGPT erzeugten Texte weder auf Faktenwissen noch auf Expertise beruhen. ChatGPT weist hierauf zum Beispiel auch an verschiedenen Punkten hin. So liest man zu Beginn der Nutzung von ChatGPT, dass obwohl bestimmte Schutzmaßnahmen implementiert seien, das System gelegentlich falsche oder irreführende Informationen liefern und beleidigende oder parteiische Inhalte produzieren kann. Es sei nicht dazu gedacht, Ratschläge zu erteilen.

Sozialität des Wissens

Damit bringt uns ChatGPT an einen Grenzpunkt menschlicher Wissensgenese und -akkumulation: Der überwiegende Teil unserer individuellen-menschlichen Wissensbestände basiert auf den Erkenntnissen und Aussagen anderer. Fast alles, was wir wissen, wissen wir aufgrund der Aussagen oder textlichen und bildlichen Erzeugnisse, die andere uns mitteilen oder hinterlassen haben. In nur sehr eingeschränkten Bereichen können wir gesichertes Wissen erlangen, ohne auf das Wissen und die Erkenntnisse anderer zurückzugreifen. Und dieser Umstand wird umso relevanter, je ausdifferenzierter menschliche Gesellschaften sind: Haben Sie heute Morgen Zeitung gelesen? Sind Sie Auto gefahren? Haben Sie vielleicht sogar Ihre Kinder zum Kindergarten oder in die Schule gebracht? Stellen Sie sich vor, Sie hätten alle Daten und Informationen selbst erheben, die Technologien in ihrer Zuverlässigkeit selbst prüfen, gegebenenfalls Ihre Kinder nicht in die Betreuung anderer übergeben und alles Wissen, was diese in der Schule erlernen, sich erst einmal selbst erarbeiten müssen. Wenn man sich überlegt, was man im Laufe eines Tages an Informationen genutzt hat, um den Tag zu planen und ihn mehr oder erfolgreich zu gestalten, und man sich anschließend überlegt, man hätte all diese Informationen und die ihnen zugrundeliegenden Daten erstmal selbst erheben, prüfen, einordnen und interpretieren müssen, um letztlich zu Schlüssen und Entscheidungen zu gelangen, dann bekommt man recht schnell ein Gefühl dafür, wie wichtig Vertrauen für ausdifferenzierte
soziale Gefüge ist.

Das Vertrauen in andere und Institutionen, zum Beispiel Forschungseinrichtungen, Universitäten, Verlage, ermöglicht das Voranschreiten in der Wissensproduktion, das wir erleben, und die gesellschaftliche Ausdifferenzierung, die uns in unserer Lebenswelt vielleicht allzu selbstverständlich scheint. Gleichzeitig macht diese Ausdifferenzierung auch ein hohes Maß an Vertrauen nötig, um in unserer komplexen Lebenswelt handlungsfähig zu bleiben.

Das ist auch einer der Gründe, warum Wahrhaftigkeit und Vertrauenswürdigkeit einen so hohen gesellschaftlichen Stellenwert haben, warum Lüge und Vertrauensbruch auch moralisch so stark geahndet werden, warum uns Fake News und strategische Falschaussagen so beunruhigen: Wahrhaftigkeit bzw. deren Fehlen führt uns an den Rand der menschlichen Lebensweise, so wie wir sie hier und heute kennen. Und hier deutet sich nun schon an, warum all dies für Demokratien äußert relevant ist.

Wahrhaftigkeit, Kommunikation und Demokratie

Öffentliche Kommunikation ist ein Kernelement von Demokratie, die Bestimmung des Gemeinwohls wird aus öffentlichem Diskurs legitimiert. Dieses Verständnis von Öffentlichkeit und deren Funktion geht mit einer Reihe von normativen Erwartungen und Annahmen einher: etwa mit der Erwartung, dass die geteilte Zielsetzung die Aushandlung und Verständigung ist; mit der Annahme der Achtung der Selbstzweckhaftigkeit aller Beteiligten und der wechselseitigen Anerkennung der Gleichberechtigung der Kommunizierenden in der Kommunikationssituation als Gelingensbedingung von Verständigung; aber eben auch Erwartungen von Wahrheit und Wahrhaftigkeit.

ChatGPT und andere Large Language Models stellen für dieses Verständnis von Öffentlichkeit eine Herausforderung dar: In Massendemokratien wird öffentliche Kommunikation zumeist medial vermittelt organisiert und strukturiert. Da die Kommunikationssituation, in der wir uns in der öffentlichen Kommunikation befinden, die nun auch von generierten Inhalten mitgestaltet wird, unübersichtlicher wird, könnte dies zu Misstrauen gegenüber Medienkommunikation führen (Bernd Heesen, Künstliche Intelligenz und Machine
Learning mit R, 2023, 12). Wer sind eigentlich die Akteur:innen in dieser Kommunikationssituation? Wer sind die Autor:innen welcher Inhalte? Bei welchen Kommunikationsakten handelt es sich um die Äußerungen von Kommunikationsteilnehmer:innen, die sich den genannten Grundsätzen gelungener Kommunikation verpflichtet sehen? Eventuell könnte dieses Misstrauen auch zu einer generellen Zurückhaltung in Bezug auf die aktive und passive Teilnahme an öffentlicher Kommunikation führen (Heesen 2023, ebd.). Gleichzeitig können Anwendungen wie ChatGPT auch bestimmte Gruppen befähigen überhaupt erst am öffentlichen Diskurs teilzunehmen und in diesem Gehör zu finden.

Selbst wenn man diese Überlegungen teilt, könnte man dann nicht immer noch argumentieren, dass ChatGPT halt „nur ein Werkzeug“ sei, und dass es eben darauf ankomme, dass wir lernen, richtig damit umzugehen. Verfügt Ethik beziehungsweise Technikethik überhaupt über ein Instrumentarium, um Large Language Models und die auf ihnen basierenden Anwendungen ethisch zu bewerten?

Nur ein Werkzeug?

Inwiefern ist ChatGPT tatsächlich nur ein Werkzeug? Was heißt es eigentlich, dass etwas nur ein Werkzeug ist? Eine Weise, in der dieser Satz verwendet wird, impliziert, dass eine ethische Bewertung von Werkzeugen nicht angemessen sei. Dass letztlich immer nur Menschen handeln würden und allein menschliches Handeln einer ethischen Bewertung unterzogen werden kann, oder erweitert vielleicht noch um institutionelles Handeln. Artefakte, wie Hammer, Zange, Bohrmaschine – oder eben ChatGPT – seien dieser Bewertung dagegen entzogen.

Der Einschätzung „Es ist nur ein Werkzeug“ möchte ich im Folgenden drei Grundüberzeugungen der Technikethik entgegensetzen, die ich zunächst erläutern und anschließend auf generative Sprachmodelle wie ChatGPT anwenden werde: (1) Technik ist nicht neutral. (2) Technik ist gerichtet. (3) Technik existiert nicht im Vakuum.

Die erste These möchte ich über ihr Gegenteil erläutern, nämlich die Neutralitätsthese, die besagt: Technik sei lediglich ein neutrales Mittel zur Erreichung bestimmter Zwecke. Sie kann freilich, so die Neutralitätsthese weiter, zu guten wie auch zu schlechten Zwecken eingesetzt werden. Diese Zwecke können einer moralischen Bewertung unterzogen werden, die Technik selbst bleibt aber einer moralischen Bewertung entzogen: Den Hammer kann ich, nach der Neutralitätsthese, benutzen, um einen Nagel in die Wand oder um jemandem den Schädel einzuschlagen. Der Hammer selbst verhielte sich aber neutral zu diesen Zwecken. Bezogen auf ChatGPT hieße dies: Ich kann diese Technologie nutzen, um massenhaft Falschmeldungen zu erstellen oder ich kann diese Technologie nutzen, um sprachlich eingeschränkte Personen in der Kommunikation z. B. mit Ämtern bei der Erstellung von Schriftstücken zu unterstützen. Nach der Neutralitätsthese lässt sich allein die Nutzung ethisch bewerten, nicht aber das Werkzeug/die Technologie selbst.

Dagegen geht die Technikethik davon aus, dass Technologie nicht neutral ist. Technologie verfüge vielmehr über intrinsische Eigenschaften, die bestimmte Nutzungsweisen ermöglichen und andere ausschließen: Mit einem Hammer kann ich einen Nagel in die Wand schlagen, mit einem Wattebausch ist das schwieriger. Umgekehrt ist der Hammer nicht geeignet, um damit eine Wunde mit Desinfektionsmittel abzutupfen.

Die Einschreibungen bestimmter Nutzungsmöglichkeiten können bewusst oder unbewusst, absichtlich oder unabsichtlich erfolgen. Aber sie sind da. Da in Technologie bestimmte Nutzungsmöglichkeiten eingeschrieben und andere ausgeschlossen werden, können wir nicht nur allein die Zwecke ethisch bewerten, zu denen sie eingesetzt werden, sondern auch die Technologie selbst. Jemand, der das recht früh im Hinblick auf Computer untersucht hat, war Joseph Weizenbaum. Weizenbaum war der Entwickler des Sprachprogramms ELIZA, das psychotherapeutische Gespräche nach der Methode von Carl R. Rogers simulieren konnte und schon in den 1970er Jahren Diskussionen ausgelöst hat, ob man nicht Psychotherapie an solche Programme auslagern könne. Ausgehend von der Beobachtung, dass Werkzeuge immer auch Welt strukturieren, stellt er sich in seinem Buch Die Macht der Computer und die Ohnmacht der Vernunft (1978) die Frage, welchen Einfluss Computer auf unsere Welt- und Selbstwahrnehmung haben. In anderer Weise betont Ruha Benjamin in ihrem Buch Race after Technology (2019), dass Technologie nicht neutral sei. Sie reflektiert vielmehr die sozialen und rechtlichen Codes, die in technischen Systemen eingebettet sind, und betont, dass technologische Entwicklungen bestimmten Perspektiven und Formen der sozialen Organisation entspringen (Benjamin 2019, 77).

Die zweite These lautet, dass Technik immer gerichtet ist. Sie ist zweckbestimmt und zielgerichtet, da sie für die Lösung bestimmter Problemlagen geschaffen wird. Werkzeuge unterliegen einer „um-zu“-Logik, sie werden für eine bestimmte Aufgabe geschaffen, für einen bestimmten Zweck. Die Zwecke, für die Technologien geschaffen werden, ergeben sich aber nicht naturläufig, sie werden gesetzt. Zwecksetzungen können ethisch eingeordnet werden. Dort, wo sie zum Beispiel andere betreffen, ist ihre Überprüfung nach ethischen Gesichtspunkten sogar geboten. Die Idee, dass Verzerrungen durch Technologien unbeabsichtigt oder unbewusst sind, wird von Benjamin in Frage gestellt. Sie argumentiert, dass jede Technologie eine Intention habe, weil man nichts gezielt erschaffen könne, ohne eine bestimmte Absicht zu verfolgen, oder ohne sich jene vorzustellen, die diese Technologie letztlich zu irgendetwas nutzen sollen (ebd., 28). Selbst die Entscheidung, was denn als Problem behandelt wird, für das eine Lösung gefunden werde müsse, beruht auf vielfältigen Vorannahmen (ebd., 11), die nicht einfach neutral sind.

Die dritte These besagt, dass Technik nicht im luftleeren Raum entwickelt und verwendet wird. Sie ist vielmehr eingebettet in Produktions- und Nutzungsbedingungen sowie politische und rechtliche Rahmenbedingungen. Technologie und Technologieentwicklung sind in menschliche Praktiken eingebunden, gleichzeitig prägen sie diese Praktiken und das menschliche Selbstbild wie auch Selbstverhältnis nachhaltig. Technologien werden dabei durch die Rahmenbedingungen beeinflusst, wie auch die Rahmenbedingungen durch die Technologien: Werte, Normen, Ideen werden in Technologien eingeschrieben. Gleichzeitig strukturieren Technologien auch Welt, erschaffen sogar neue Wirklichkeiten: „Der Computer“ ist dann zum „unentbehrlichen Bestandteil jeder Struktur“ geworden, heißt es bei Weizenbaum, „sobald er so total in die Struktur integriert ist, so eingesponnen in die verschiedensten lebenswichtigen Substrukturen, dass er nicht mehr herausgenommen werden kann, ohne unweigerlich die Gesamtstruktur zu schädigen” (Weizenbaum 1978, 49f.).

An diesem Punkt befinden wir uns. Wir können hinter diesen Schritt nicht mehr zurückgehen, aber wir sollten diese Prozesse aktiv gestalten und nicht einer Logik der Machbarkeit unterliegen. Die Rahmenbedingungen von Technologieentwicklung müssen daher mit in den Blick genommen werden – und die Auswirkungen von Technologieentwicklung auf die Rahmenbedingungen ebenfalls.

ChatGPT: It’s just a tool?!

Ist ChatGPT also nur ein Werkzeug? Ja, vielleicht schon. Vorausgesetzt, dass wir in den Blick nehmen, dass in Werkzeuge bestimmte Nutzungsweisen eingeschrieben sind, dass sie für bestimmte Zwecke gemacht werden, von den Rahmenbedingungen ihrer Entstehung geprägt sind und profunde Auswirkungen auf diese haben können. Dass Werkzeuge also große normative Macht ausüben können. Wir müssen uns daher ganz genau anschauen, welche Wertsetzungen in diese Technologie eingeschrieben sind. Wir sind noch dabei zu verstehen, wie genau LLMs funktionieren, welche Fähigkeiten und welche Grenzen sie haben – und von welchen technischen Faktoren diese jeweils abhängen, aber einige Aspekte werden bereits jetzt diskutiert: LLMs tragen weiter dazu bei, dass die Verwendung der Daten Dritter zur unautorisierten Weiternutzung eine Normalität darstellt. Sie tragen außerdem zu einer Homogenisierung von Sprech- und Ausdrucksweisen bei und dazu, dass bestimmte Sprachen und Sprechweisen als Standard und andere als Abweichung betrachtet werden. Die Entwicklung und Verbreitung von LLMs, wie wir sie erlebt haben, setzt außerdem eine bestimmte Art von Technikentwicklung und -einsatz fort, die nicht demokratisch rückgebunden ist, auch wenn sie gegebenenfalls massive gesellschaftliche Folgen hat. (Damit ist freilich nicht gesagt, dass demokratische Rückbindung von Technikentwicklung nie zu problematischen Folgen führen würde.) Außerdem befördern die Anwendungen, die auf LLMs beruhen, eine weitere Individualisierung von Kommunikation und Ratsuche: Man wendet sich mit Fragen nicht an andere Menschen, sondern an die Chatbots. Einordnen muss man die Antworten in beiden Fällen. Auch Menschen irren sich, machen Falschaussagen, aber es fehlt das Moment der Intersubjektivität. Damit geht unter anderem einher, dass wir in der Kommunikation mit einem Chatbot nicht mehr aufgefordert sind, uns Gedanken über andere zu machen; non-verbale Zeichen und Signale zu lesen.

Um auf die These von der Sozialität unseres Wissens zurückzukommen: Auch wenn Chatbots sich nicht in dem Umstand von Menschen unterscheiden, dass sie falsche Aussagen treffen – denn Menschen tun dies schließlich auch – besteht in der technischen Festschreibung ein entscheidender Unterschied: Normen von Wahrheitsfähigkeit und Wahrhaftigkeit werden hier technisch unterminiert, nicht als Fehler, Irrtum oder auch aus Böswilligkeit, so wie wir es je schon von Menschen kennen, sondern als Bestandteil der Technologie. Dass Wahrheit und Wahrhaftigkeit keine Rolle spielen ist Bestandteil der probabilistischen Struktur der Modelle. Dieser Umstand verletzt normative Kernannahmen für gelingende Kommunikation.

Plädoyer für Integrierte Technikentwicklung

Insgesamt zeigen diese Überlegungen zu generativen Sprachmodellen, dass Techniken nicht nur Werkzeuge sind, sondern auch gestaltender Faktor unserer Welt. Ihre Entwicklung und Anwendung bedürfen einer kritischen Reflexion im Hinblick auf ethische Aspekte, demokratische Werte und gesellschaftliche Auswirkungen. Gesellschaftliche Debatten über KI und deren Anwendungen sind aber nur möglich, wenn bekannt ist, wie diese funktionieren, wo sie zum Einsatz kommen und welche Auswirkungen dies hat – und auch Zeit zur Auseinandersetzung mit den möglichen Auswirkungen ist, bevor sie zum ­Einsatz kommen.

Aktuell werden wir immer wieder mit neuen technologischen Entwicklungen konfrontiert, sobald diese sich auf dem Markt befinden. Ethische, soziale und rechtliche Überlegungen sollten aber nicht ad hoc und auch nicht erst ex post in die Betrachtungen mit einbezogen werden, sondern im Sinne einer integrierten Forschung und Technikentwicklung bereits in die kritische Betrachtung der Problemdefinition, die Ausgestaltung des Entwicklungsprozesses und die Implementierung. Weil Technik eben nicht neutral ist, weil die Zwecksetzungen in unserer Hand liegen, weil Technik nicht im luftleeren Raum entsteht und bleibt.

Weitere Medien vom Autor / Thema: Philosophie | Humanwissenschaften

Aktuelle Veranstaltungen zum Thema: Philosophie | Humanwissenschaften

Das Alte Testament im philosophischen Kreuzverhör
Freitag, 10.01. - Samstag, 11.01.2025
Porträt: © Wikimedia Commons_Amrei-Marie
Literatur im Gespräch
Erich Garhammer trifft Adolf Muschg
Donnerstag, 23.01.2025
Ökumenische Tagung
Freitag, 31.01. - Samstag, 01.02.2025
Neue Batterietypen für das postfossile Zeitalter
Mittwoch, 05.02.2025
Mönch am Meer (1808/1810), Caspar David Friedrich / Wikimedia Commons, Public Domain
Vom Sinn des Betens
Guardini-Tag 2025
Montag, 17.02. - Mittwoch, 19.02.2025
© Viacheslav Lopatin / shutterstock
What's Ancient about Ancient Philosophy
Die Philosophin Anna Marmodoro lädt zu einem neuen Kennenlernen der Philosophie der Antike ein
Dienstag, 25.02.2025
© Bartholomäusnacht von François Dubois
"Heilige" Kriege
Historische Tage
Mittwoch, 05.03. - Freitag, 07.03.2025
© Shutterstock
Kirchenvolk im Wandel
Analysen und Perspektiven
Montag, 10.03.2025