Seitdem ChatGPT gegen Ende des Jahres 2022 für jedermann und kostenfrei nutzbar wurde, lässt sich über Künstliche Intelligenz noch aufgeregter und emotional aufgewühlter diskutieren als zuvor. Chancen und Risiken dieser Technologie sind abzuwiegen, die zu erwartenden Veränderungen in Schule, Beruf, Studium, Wissenschaft und Wirtschaft, Privatleben und Arbeitswelt zu erörtern, soziale und moralische Fragen zu stellen und zu beantworten. Aber nicht viele Gedanken werden der Herkunft von Künstlicher Intelligenz (KI) gewidmet: Woher kommt und woraus besteht sie eigentlich, worauf gründete sie sich, wie hat sie sich entwickelt bzw. wie wurde sie konstruiert? – KI ist von Beginn an mit dem Aufkommen der Computer verbunden gewesen, die schon in den Anfangszeiten „Elektronengehirne“ oder „Denkmaschinen“ genannt wurden. Auch war sie schon von Beginn an Thema von Kurzgeschichten, Romanen, Comics und Kino- bzw. Fernsehfilmen mit Zukunftsvisionen. Fähigkeiten früherer oder heutiger KI-Systeme wurden oft als Mischungen aus realen Technikeigenschaften und fiktionalen oder gar phantastischen Kreationen geschildert. Da die Begriffe Intelligenz und Denken gar nicht einhellig definiert sind, wird meist auch deren gesamtes Bedeutungsspektrum genutzt, um plakativ und reißerisch in der Öffentlichkeit Schlagzeilen zu machen. Die Erzählungen wurden in der zweiten Hälfte des 20. Jahrhunderts zudem gern mit denen der Science-Fiction um Weltraumreisen und Atomenergie-Euphorie vermischt.
Nüchtern betrachtet ist ein anderes Bild zu zeichnen, um den KI-Entwicklungen historisch gerecht zu werden. Da KI einerseits aus computerisierten Systemen besteht, andererseits aber mit den geisteswissenschaftlichen Begriffen namentlich der Intelligenz, aber auch des Denkens und des Bewusstseins untrennbar verbunden ist, haben Entwicklungen aus beiden Wissenschaftskulturen zu dem geführt, was uns heute beschäftigt.
Computer sind logische Maschinen. Sie realisieren die logischen Verknüpfungen durch Schaltkreise, die entweder elektrischen Strom führen, oder nicht. Dieses binäre Prinzip ermöglicht die logische Wahrheit durch Ketten von Aussageverknüpfungen zu verfolgen. Logisches Denken ist aber nur ein Aspekt des Phänomens, das wir Intelligenz nennen. Viele weitere kognitive Fähigkeiten wurden in der Psychologie untersucht, um Intelligenz zu erfassen, z. B. das Wahrnehmen und Erkennen, die Aufmerksamkeit und das Erinnern, das Problemlösen und das Lernen. Diese geistigen oder mentalen Vermögen schreiben wir den Menschen und einigen wenigen anderen Lebewesen zu. Im 19. Jahrhundert machten Psychologen die Untersuchungen dieser Fähigkeiten zu einer empirischen Wissenschaft, als sie das Erleben und Verhalten der Menschen experimentell erforschten.
Da man nach dem II. Weltkrieg damit begann, den Computern die mühsame Kärrnerarbeit sehr langer logischer Schlussfolgerungsketten zu übergeben, die als der regelgeleitete Kern menschlichen Denkens angesehen wurde, war es nur folgerichtig, sich zu fragen, ob diesen Maschinen oder entsprechende Weiterentwicklungen nicht auch zu nicht-logischem Denken und anderen kognitiven Merkmalen befähigt werden können. So formulierte im Jahre 1950 der britische Mathematiker Alan Turing in seinem Artikel Computing Machinery and Intelligence in der Psychologie-Zeitschrift Mind die Frage, ob Computer denken können. Das Vermögen zu denken bezeichnete er dabei als „intelligence“ und zur Klärung des Sachverhaltes schlug er ein „Imitation Game“ vor, bei dem ein Mensch aufgrund der Antworten, die er von einem Mitspieler auf seine Fragen bekommt, entscheiden soll, ob der antwortende Mitspieler menschlich ist oder eine Maschine. Turing kam zu dem Schluss, dass einem Computer, den ein Fragensteller für einen Menschen hält, weil seine Antworten solche, die Menschen geben könnten imitieren, ein dem Menschen gleichwertiges Denkvermögen zugesprochen werden müsse und er deshalb intelligent genannt werden sollte.
Die Computer dieser Zeit waren elektrotechnische Geräte, mit denen die Operationen der klassischen Aussagenlogik wie „a und b“, „c oder d“ und „wenn e, dann f“ in elektrische Schaltungen übersetzt werden konnten. Es waren Maschinen, die ihnen eingegebene Daten als Symbole verarbeiteten. Mit diesen „computing“ genannten Prozessen sollte also jegliches menschliche Denken in Maschinen nachgeahmt werden können? – Das konnten Computer aus dem Jahre 1950 nicht! Das wusste selbstverständlich auch Turing, aber er war davon überzeugt, dass zukünftige Computer das Leben der Menschen verändern würden und man um das Jahr 2000 wie selbstverständlich von „denkenden Maschinen“ sprechen würde, weil sich der Begriff „Denken“ dann gewandelt haben würde. Hier hat sich Turing geirrt: Auch im Jahr 2024 schreibt nicht jeder den KI-Systemen das Denken ganz selbstverständlich zu, wenn sich auch entsprechend unreflektierte Äußerungen immer weiter verbreiten!
Ob intelligente Maschinen konstruiert werden könnten, fragten sich zur Mitte der 1950er Jahre die Mathematiker John McCarthy und Marvin Minsky und die Elektrotechniker Claude Shannon und Nathaniel Rochester. Darüber wollten sie mit anderen Forschern bei einem Treffen im US-amerikanischen Dartmouth College diskutieren, wie sie in einen Förderantrag an die Rockefeller Foundation schrieben. Das Treffen fand 1956 statt und heute wird es oft der Beginn der Forschungen zur KI genannt. Dort stellten Herbert Simon und Alan Newell das Programm Logic Theorist vor, das menschliches Denken beim Beweisen logisch-mathematischer Probleme simulierte. Ihr zwei Jahre später entwickeltes Programm zur Lösung ganz allgemeiner Probleme – der General Problem Solver (GPS) – wurde wieder mit dem Anspruch entwickelt ganz allgemein menschliches Denken simulieren zu können. Dieses Projekt scheiterte an der in der Sache liegenden Komplexität.
Nur drei Jahre später gründeten Minsky und McCarthy am MIT die erste Forschergruppe mit dem Ziel, KI-Systeme zu bauen. 1962 ging McCarthy nach Kalifornien, um an der Universität Stanford ein weiteres KI-Laboratorium aufzubauen. Im Jahre 1960 veröffentlichte Minsky den vielbeachteten Artikel Steps towards AI, in dem er zusammenfasste, welche Anforderungen an KI-Systeme seines Erachtens erfüllt werden müssen: Sie sollten in Datenvolumina gezielt suchen, Muster erkennen, lernen und planen können und auf einem Computer ablaufbar konstruiert werden. Zur Lösung solcher und ähnlicher Probleme schrieben Wissenschaftler dann Programme, die in einem Computer ablaufen sollten. Dabei ging es auch darum, mögliche Ereignisse im Voraus zu berücksichtigen und die jeweils dann angemessene Handlungsoption in Unterprogrammen zu berücksichtigen. Für jeden Problemtyp entstanden so Routinen, in denen immer wieder gleiche Schrittfolgen von programmierten Algorithmen durchgeführt wurden, z. B. zum Beweisen mathematischer Sätze, zur Zeichenerkennung in Laut und Schrift. Zudem sammelte man für gut eingrenzbare Anwendungsbereiche z. B. in der Geologie, der Medizin oder beim Militär Faktenmaterial, das in Wissensbasen gespeichert wurde. Durch Zusammenschluss dieser Wissensbasen mit den logischen Folgerungsmechanismen entstanden in den 1970er Jahren sogenannte Expertensysteme, etwa zur Analyse von Massenspektren, um chemische Strukturen zu identifizieren, zum Diagnostizieren von Schäden bei technischen Systemen oder auch von Krankheiten aufgrund von Symptomen und Untersuchungswerten bei den Patienten. So verfügte das medizinische Expertensystem MYCIN über 450 Regeln, die zu Vorschlägen für Therapien bei Infektionskrankheiten führten. Diese Regeln wurden in Zusammenarbeit mit Experten (in diesem Falle erfahrene Mediziner) aufgestellt und das System konnte aus eingegebenen und gespeicherten Fakten mittels der Regeln Schlüsse ziehen. Letztendlich war diese Technologie zwar begrenzt erfolgreich, enttäuschte aber gemessen an den vollmundigen Voraussagen.
GOFAI und NFAI
1985 erschien das Buch Artificial Intelligence: The Very Idea des Philosophen John Haugeland. Er führte darin für die bisher hier betrachtete KI das Akronym GOFAI (Good Old Fashioned Artificial Intelligence) ein und grenzte diesen bisherigen Mainstream der KI-Forschung von anderen Ansätzen ab, intelligente Maschinen zu konstruieren, die seit den 1980er Jahren immer größere Beachtung fanden. Dieses neue Forschungsprogramm wurde Konnektionismus genannt. Dabei geht es um viele gleiche oder ähnliche Elemente, die miteinander vernetzt sind und über Signale Nachrichten austauschen. Solche Modelle zur Simulation von intelligentem Verhalten sind beispielsweise Künstliche Neuronale Netze. Sie heißen so, weil sie den Neuronenverbänden in organischen Nervensystemen grob nachgebildet wurden. Die Grundidee stammt von Warren McCulloch und Walter Pitts, die schon 1943 ein logisches Modell von Nervenzellen und deren Vernetzung vorgestellt hatten, für das sich bald darauf Nachrichtentechniker und Computerkonstrukteure interessierten, weil der bekannte Mathematiker John von Neumann die Terminologie dieses Artikels im Jahre 1945 nutzte, um die Konstruktion und Funktionsweise des neu zu bauenden Computers EDVAC zu beschreiben. Anstatt „Schalter“ schrieb er „neuron“ (Nervenzelle) und anstatt „Speicher“ schrieb er „memory“ (Gedächtnis). Einen Nachweis für eine prinzipielle Analogie von Gehirn und Computer gab es nicht, und es war klar, dass von Neumann hier stark vereinfacht hatte, doch ihn beschäftigte diese Thematik bis zum Ende seines Lebens, wie sein posthum unvollendet veröffentlichtes Buch The Computer and the Brain belegt.
Der Psychologe Frank Rosenblatt griff in den späten 1950er Jahren einen Vorschlag von McCulloch und Pitts auf, die von ihnen modellierten künstlichen Neuronen in die Lage zu versetzen, räumliche Muster zu erkennen, und er entwickelte das Perceptron, ein künstliches Neuronennetz, das zunächst Quadrate und Kreise, später Ziffern und Buchstaben „erkannte“. Zu Beginn der 1960er Jahre baute er mit seinen Mitarbeitern auch einen ersten realen Apparat namens Perceptron Mark I der mit seinem 20 x 20 Pixel großem Bildsensor Ziffern identifizierte, deren Merkmale er zuvor abgespeichert hatte.
Bereits Rosenblatt sprach bei dieser Mustererkennung aufgrund vieler Versuch-und-Irrtum-Verarbeitungen von einem „Lernalgorithmus“. Insofern war dies ein Anfang der New fashioned AI, New Wave AI oder auch new-fangled AI (NFAI) genannten Forschung, die ihre Umwelt „wahrnehmen“, darauf reagieren, sich anpassen und „lernen“ konnte. Es sind diese NFAI-Systeme, die unseren heutigen Begriff der KI prägen.
Spielen Lernen
NFAI löste GOFAI nicht plötzlich ab, vielmehr überlagerten sich die Entwicklungen beider KI-Zugänge und sie werden auch beide weiterhin verfolgt. Interessant ist zu sehen, wie weit sie tragen, wenn es darum ging, Computer Spiele mit festen Regeln spielen zu lassen, wobei die Güte des Spielens als Indikator für Intelligenz angenommen wird.
Schon in den 1940er Jahren dachte der deutsche Bauingenieur und Computerpionier Konrad Zuse darüber nach, wie er eine Rechenanlage nicht nur rechnen, sondern auch andere Probleme lösen lassen könnte. Dazu entwickelte er den Plankalkül, eine erste logische Sprache, um dem Rechner Befehle zu erteilen. Der Plankalkül sollte so allgemein sein, dass man damit auch die Regeln für das Schachspiel formulieren konnte. Zuses Vorarbeiten dazu finden sich heute im Konrad
Zuse Internet Archive.
Um 1946 entwarf der britische Mathematiker Alan Turing gemeinsam mit seinem Studienfreund David Gawen Champernowne einen ersten Schach-Algorithmus, der Turochamp genannt und 1952 fertiggestellt wurde. Weil aber noch keine entsprechende Maschine zur Verfügung stand, konnte Turing ihn nicht als Programm auf einem Computer laufen lassen. Er übernahm daher selbst die Rolle der Maschine, indem er ganz genau einen Befehl nach dem anderen ausführte, so wie sie zuvor auf Papier niedergeschrieben worden waren. Dabei spielte er gegen seinen Kollegen Alick Edwards Glennie. Turing brauchte damals zur Berechnung jedes Zugs etwa eine halbe Stunde!
Gemeinsam mit der Mathematikerin Cecily Popplewell (1920–1995) hatte Turing seit 1949 in seiner Abteilung für Computer Machine Learning an der University of Manchester Seminare durchgeführt. Der aus Deutschland geflohene und 1947 britischer Staatsbürger gewordene Dietrich Günther Prinz, der mit Turings Team eng zusammenarbeitete, hatte gelernt, den Rechner Ferranti Mark 1 zu programmieren und er schrieb im November 1951 wohl das erste Schachprogramm Matt in zwei Zügen, das auf dieser Maschine lief und die Aufgabe in 15 Minuten löste. Prinz hatte sich von dem Artikel A Theory of Chess and Noughts and Crosses in den Science News im Jahre 1950 inspirieren lassen, den der britische Physiker und seit 1947 ebenfalls zu Turings Gruppe gehörige Donald Watts Davies geschrieben hatte. Bei jeder Spielpartie durchsuchte Prinz‘ Programm alle möglichen Züge und Gegenzüge, es wurden also tausende mögliche Spielzüge ausgewertet. Daher ließ das Computerprogramm mit fast 15 Minuten sehr viel länger auf seinen nächsten Zug warten, als ein versierter menschlicher Schachspieler. Der Mark 1 war allerdings nicht mächtig genug, eine gesamte Schach-Partie zu spielen, deshalb hatte Prinz sein Programm auf die Spielsituation zwei Züge vom Matt entfernt begrenzt.
In den USA trug der US-amerikanische Bell-Mathematiker Claude Shannon am 9. März 1949 in New York über Ideen vor, Computer so zu programmieren, dass sie Schach spielen. Die schriftliche Fassung dieses Vortrags wurde im darauffolgenden Jahr in einer philosophischen Zeitschrift abgedruckt. Fast ein Jahrzehnt später animierten den IBM-Ingenieur Alex Bernstein Diskussionen mit Shannon dazu, den IBM-Rechner 704 Schach spielen zu lassen. Mit seinen Kollegen und unterstützt vom Schachgroßmeister Arthur Bernard Bisguier schrieb er ein Schachprogramm, das beim Dartmouth Treffen diskutiert wurde, obwohl es noch nicht fertiggestellt war. Im darauffolgenden Jahr lief dieses Bernstein Chess Program dann erfolgreich.
Das Schachspiel wurde ein wichtiges Test- und Anwendungsfeld für KI-Programme. Schach ist ungeheuer komplex – „ultracomplicated“, wie Simon und Newell sich ausdrückten. Es war „the intellectual game par excellence“. Als die beiden mit dem Programmierer John Clifford Shaw 1958 die damals bekannten Schach-Programme untersuchten, kamen sie noch zu dem Urteil: „we have at least entered the arena of human play – we can beat a beginner.“ Schon bald darauf nannte der russische AI-Forscher Alexander Semenovich Konrod das Schachspiel die „Drosophila der AI“, eine Bezeichnung, die der Wissenschaftshistoriker und -soziologe Nathan Ensmenger vor etwa
12 Jahren gründlich diskutierte.
Spiel mit Dame
Das Spiel Schach führte die KI von der GOFAI zur NFAI. Bevor dieser Pfad nachgezeichnet wird, muss aber das Spiel Dame genannt werden, das diesen Wechsel früher einläutete, denn schon 1959 sah der Elektroingenieur Arthur Lee Samuel eine Möglichkeit, Computer „lernen“ zu lassen, ohne dass sie dafür explizit programmiert würden. Er demonstrierte dies mit seinem Programm, das die Regeln des Damespiels enthielt und sein Spiel jeweils verbessern konnte, weil erfolgreiche Spielzüge gegenüber nicht zielführenden Spielzügen höher bewertet wurden. Die mit den Spielzügen abgespeicherten Werte gaben die Wahrscheinlichkeit (lateinisch probabilitas) an, mit denen die Spielzüge gewinnbringend wären. Die entsprechenden Algorithmen heißen probabilistisch, da sie – anders als die klassischen (deterministischen) Algorithmen, die stets die eindeutige Lösung des Problems finden – nur wahrscheinliche Ergebnisse liefern. Samuel konnte so die Spielgüte seines Programms optimieren, obwohl das Programm selbst unverändert blieb.
Algorithmen, die nicht nach jedem Durchlauf denselben, sondern mit einer gewissen Wahrscheinlichkeit einen besseren Ausgabewert liefern, in diesem Sinne „lernen“, sind Werkzeuge des Maschinellen Lernens (ML) und damit der New fashioned Artificial Intelligence (NFAI).
Statistik
In den modernen Wissenschaften werden Wahrscheinlichkeiten zur Voraussage von Ereignissen gebraucht. Diese stützen sich auf genügend große Datenmengen, wie sie etwa zur Staatsbeschreibung, der ursprünglichen Bedeutung des Wortes „Statistik“ gesammelt und analysiert wurden.
In der Wissenschaftsdisziplin dieses Namens werden aufgrund verfügbaren Datenmaterials Hypothesen generiert und ihre Methoden sind inzwischen in den empirisch arbeitenden Wissenschaften unverzichtbar geworden. Die Geschichte des Fachs Statistik mäandert zwischen mathematischer Theorie, wissenschaftlichem Berechnen und ihren verschiedenen Anwendungsgebieten, wie z. B. Geburts- und Sterberegister, Rentenversicherungen und Wirtschaftsdaten. Mit letzteren begann ihre historische Entwicklung, denn zunächst wurden Daten der Anwendungsbereiche gesammelt und präsentiert. Das schlussfolgernde Vorgehen der Statistik wurde bald einer Mathematisierung unterzogen und dies wurde zum Fundament des mathematisch-statistischen Methodengebäudes bis zur Mitte des 20. Jahrhunderts. Bis dahin spielte der empirisch-numerische Zugang nur eine kleine Rolle. Dies änderte sich mit Aufkommen der elektronischen Computer, denn nun setzte ein Prozess ein, der die Statistik aus ihrem „Eigenbrötlertum“ um mathematische Strukturen herausgelöst und mitgerissen habe, argumentieren die Stanford-Statistik-Professoren Bradley Efron und Trevor Hastie
in ihrem Buch Computer Age Statistical Inference.
Datenwissenschaft
Wie umfassend diese Veränderung der Statistik durch die Computer sein würde, war zur Mitte des 20. Jahrhunderts nicht abzusehen. Weitsichtig war allerdings schon im Jahre 1962 der Statistiker John Wilder Tukey, der in seinem Artikel The Future of Data Analysis forderte, die Statistik als Disziplin anwendungs- und berechnungsorientiert auszurichten. Zwar könne die Datenanalyse bei kleinen Datensätzen von Hand durchgeführt werden, aber die Geschwindigkeit und die Wirtschaftlichkeit der Antwort machten den Computer bei großen Datensätzen unentbehrlich und auch bei kleinen Datensätzen sehr wertvoll. Darin bestehe die Zukunft der Datenanalyse, die sich in allen Bereichen der Wissenschaft und der Technologie als erfolgreich erweisen werde. 1982 plädierte Tukey in seinem Vortrag Another Look at the Future noch einmal ausdrücklich für eine intensive interdisziplinäre Zusammenarbeit der Kulturen der Statistik und der Computer Science.
Zwei Kulturen des Modellierens
In den 1970er Jahren suchte die Environmental Protection Agency (EPA) nach Methoden zur genaueren Voraussage der Ozonkonzentration in der Luft über dem Los-Angeles-Becken, die in den zehn Jahren vorher oft zu für die Bevölkerung gesundheitsgefährdenden Werten angestiegen war. Ziel der dazu in Auftrag gegebenen Studie war eine möglichst exakte Vorhersage der Ozonwerte für die jeweils nächsten 12 Stunden.
An Datenmaterial standen die über 450 meteorologischen Variablen zur Verfügung, die in den vergangenen sieben Jahren täglich und stündlich gemessen worden waren, sowie die zum jeweiligen Zeitpunkt gemessen Ozonwerte. Aufgabe des Projekts war es, die mathematische Funktion zu schätzen, die den Ozonwert an einem Tag des Untersuchungszeitraums als Funktion der 450 Messwerte angibt. Dazu teilten die Projektarbeiter die Daten in zwei Datensätze auf: einen für das Training des Programms, der aus den Daten der ersten 5 Jahre bestand, und mit dem ein Modell aufgebaut wird, und einen mit den Daten der letzten 2 Jahre, gegen den das Modell dann getestet wurde. Da mit den herkömmlichen statistischen Verfahren keine akzeptablen Ergebnisse erzielt werden konnten, scheiterte das Projekt.
Ein Mitarbeiter bei diesem Ozon-Projekt war der Statistiker Leo Breiman. Er schrieb aufgrund seiner hier gesammelten und weiterer Erfahrungen im Jahre 2001 den Artikel Statistical Modeling: The Two Cultures, in dem er konstatierte, dass die Statistiker*innen mittlerweile zwei unterschiedliche „Kulturen“ hervorgebracht hatten: 1) die Kultur des statistischen Modellierens, bei der sie ausgehend von der Prämisse, dass ein gegebenes stochastisches Datenmodell die Daten erzeuge, von den Daten zu ihren Schlussfolgerungen gelangten; 2) die Kultur des algorithmischen Modellierens, bei der ein Algorithmus ohne Vorannahmen über einen etwaigen Datenmechanismus die Testdaten klassifiziert und aufgrund der schon vorliegender Daten zu Voraussagen kommt. Diese Kultur des algorithmischen Modellierens hatte sich vor allem außerhalb der Universitäten als alternatives Vorgehen bei hochkomplexen Problemen entwickelt und etabliert.
Breiman hielt die erste Kultur für die zu lösenden Probleme ungenügend, weil die betrachteten Systeme ungeheuer groß und komplex sind und aus den Wissenschaften immer mehr Fragen aufkamen, die nicht beantwortet werden konnten. So mussten auch die Datenstrukturen immer komplexer werden und es wurde schwieriger, geeignete Datenmodelle zu konstruieren. Die zweite Kultur konnte hingegen wegen ihrer hohen Prognosegenauigkeit immer mehr Erfolge vorweisen.
Den von Breiman geforderten Schwenk der Statistik weg von der Wahrscheinlichkeitstheorie und hin zu Algorithmen nannte der mit ihm befreundete Stanford-Professor Jerome Herold Friedman eine „Data-Mining-Revolution“. Die Statistik sei an einem Scheideweg und er empfahl seiner Zunft: „make peace with computing” und „moderate our romance with mathematics”.
Im gleichen Jahr forderte Chien-Fu Jeff Wu, Statistik-Professor in Michigan, seine Community auf, das Fach Statistik in Data Science umzubenennen und nicht mehr von „Statistiker*innen“, sondern von „Data scientists“ zu sprechen: „It is time in the history of statistics to make a bold move“: Man möge sich auf die „großen Datenmengen“ fokussieren, sich den anderen Wissenschaften mehr öffnen – auch für die Ausbildung von Datenwissenschaftler*innen sollten die anderen Wissenschaften treibend sein –, deren empirisch-physikalischen Ansatz und deren Wissen zur Problemlösung nutzen.
„Something important changed in the world of statistics in the new millennium”, schrieben Efron und Hastie. Die Ursache dafür sahen sie in den Möglichkeiten der Voraussagealgorithmen, die das Fach Statistik zu Data Analytics und schließlich zur Data Science wandelten. Mit ihren Erfolgen, die sich bei enorm großen Datenmengen einstellten, wurden die Algorithmen immer wichtiger. Efron und Hastie nennen sie die „media stars of the Big-Data era“.
GOFAI und Schach
Garri Kimowitsch Kasparow war von 1985 bis 2000 Schachweltmeister, der auch oft Wettkämpfe mit Turnierbedenkzeit gegen Schachprogramme bestritt. Gegen den von der Firma IBM gebauten Deep Thought spielte er 1989 zwei Partien erfolgreich und auch dessen Nachfolger Deep Blue besiegte er im Jahre 1996 mit 4:2. Im Jahr darauf verlor er allerdings den Rückkampf mit 2,5:3,5.
Der 1985 in die USA eingewanderte Taiwanese Feng-hsiung Hsu, der 1989 mit einer Arbeit über Computerschach an der Carnegie Mellon University in Pittsburgh (Pennsylvania) promoviert wurde, konstruierte darauf aufbauend mit seinem Team den Computer Deep Thought. Dessen Nachfolger Deep Blue entstand dann bei IBM in Zusammenarbeit von Hsu mit dem kanadischen Informatiker Murray S. Campbell. Deep Blue enthielt riesige Schach-Datenbanken, hatte enorme Rechenleistung und konnte enorm viele Züge und Kombinationen simulieren. Diese große Rechenkapazität, riesige Mengen von möglichen Zügen im Voraus durchzuprobieren, gelang sozusagen mit „Brute Force“ (roher Gewalt).
NFAI und Go
Weitaus komplexer als Schach und damit die weitaus größere Herausforderung für die Entwickler von KI-Systemen war das japanische Spiel Go, dessen Brett mit seinen 19 x 19 Feldern größer als das 8 x 8 Feld des Schachspiels ist und ungleich mehr mögliche Züge bietet. Bei diesem Spiel versuchen beide Spieler mit ihren Steinen mehr Gebiete auf dem Spielfeld zu erobern als der Gegner. Dazu müssen die Gebiete mit eigenen Steinen umzingelt werden. Zudem bringt das Schlagen von gegnerischen Steinen Punkte.
Mit traditionellen Brute-Force-Algorithmen war das Go-Spiel gegen gute Spieler nicht zu gewinnen. Im Gegensatz zu Schach gab es für Go aber auch keine zweckmäßigen heuristischen Methoden, um eine gegebene Spielstellung zu bewerten. Erst das algorithmische Modellieren führte hier zum Ziel, als das Computerprogramm AlphaGo im Oktober 2015 den mehrfachen Go-Europameister Fan Hui (2. Dan) unter Turnierbedingungen besiegte. AlphaGo von der britischen Firma DeepMind nutzte ein künstliches neuronales Netzwerk für „Deep Learning“. Es kam damit einem von der Firma Facebook entwickelten System um wenige Wochen zuvor, denn am 27. Januar 2016 hatte Mark Zuckerberg gepostet, dass man dort einem Computer das Go-Spiel beigebracht habe. Noch im gleichen Jahr schlug AlphaGo den Südkoreaner Lee Sedol, einen der weltbesten Go-Profispieler, nachdem es zuvor mit 30 Millionen Go-Partien trainiert wurde, die menschliche Meister gespielt hatten.
Im Jahr 2017 stellte ein Team um Demis Hassabis und David Silver von Googles KI-Forschungszentrum DeepMind in London im Wissenschaftsmagazin Nature ein Nachfolgeprogramm vor: AlphaGo Zero. Dieses Programm brauchte keinen menschlichen Lehrer mehr. Es erhielt die Go-Regeln und „lernte“, indem es gegen sich selbst spielte. Ein neuronales Netzwerk und Voraussagealgorithmen bestimmten den jeweils nächsten Zug. Gute Züge wurden belohnt – man spricht von verstärkendem maschinellem Lernen.
Auch NFAI denkt nicht
Auch ChatGPT – die Abkürzung für Generative Pre-trained Transformer (ein Umwandler, der zuvor trainiert wurde und Texte erzeugt) – beruht auf dem algorithmischen Modellieren des maschinellen Lernens. ChatGPT wurde mit großen Datenmengen trainiert, und wenn wir dieser neuen KI (NFAI) nun Fragen oder Anweisungen übermitteln, so verarbeitet und analysiert es diese unter Nutzung seiner Trainingsdaten in seiner neuronalen Netzwerk-Architektur. Die relevanten Informationen werden herausgestellt und eine Antwort erzeugt, die das KI-System an uns zurücksendet. ChatGPT antwortet also aufgrund eines umfangreichen Trainings mit großen Datenmengen, darunter sind ein Textkorpus aus Büchern, Briefen, Wikipedia-Einträgen oder auch literarischen Text-
sammlungen, sowie das gesamte Gutenberg-Projekt.
Die Antworten wurden nicht von ChatGPT erdacht, sondern sie sind als Wortfolgen entstanden, die nach algorithmisch gewonnenen Wahrscheinlichkeiten auf diese Weise zusammengesetzt wurden. Einen Sinn in diesen Antworten gibt es erst dann, wenn wir ihn darin erkennen, also wenn wir ihn denken, denn Künstliche Intelligenz kann nicht denken!