Künstliche Intelligenz. Technologische Grundlagen und Ethik

Die Zukunft der Medizin

Im Rahmen der Veranstaltung "Die Zukunft der Medizin", 14.05.2019

Was ist künstliche Intelligenz?

 

Künstliche Intelligenz (KI) beherrscht längst unser Leben, ohne dass es vielen bewusst ist. Smartphones, die mit uns sprechen, Armbanduhren, die unsere Gesundheitsdaten aufzeichnen, Arbeitsabläufe, die sich automatisch organisieren, Autos, Flugzeuge und Drohnen, die sich selbst steuern, Verkehrs- und Energiesysteme mit autonomer Logistik oder Roboter, die ferne Planeten erkunden, sind technische Beispiele einer vernetzten Welt intelligenter Systeme. Sie zeigen uns, wie unser Alltag von KI-Funktionen bestimmt ist.

Alan M. Turing (1912-1954) definierte 1950 in dem nach ihm benannten Test ein System dann als intelligent, wenn es in seinen Antworten und Reaktionen nicht von einem Menschen zu unterscheiden ist. Der Nachteil dieser Definition ist, dass der Mensch zum Maßstab gemacht wird.

Auch biologische Organismen sind nämlich Beispiele von intelligenten Systemen, die wie der Mensch in der Evolution entstanden und mehr oder weniger selbstständig Probleme effizient lösen können. Gelegentlich ist die Natur Vorbild für technische Entwicklungen. Häufig finden Informatik und Ingenieurwissenschaften jedoch Lösungen, die anders und sogar besser und effizienter sind als in der Natur. Es gibt also nicht „die“ Intelligenz, sondern Grade effizienter und automatisierter Problemlösungen, die von technischen oder natürlichen Systemen realisiert werden können.

Daher nenne ich (in einer vorläufigen Arbeitsdefinition) ein System dann intelligent, wenn es selbstständig und effizient Probleme lösen kann. Der Grad der Intelligenz hängt vom Grad der Selbstständigkeit des Systems, dem Grad der Komplexität des Problems und dem Grad der Effizienz des Problemlösungsverfahrens ab. Diese Kriterien können wir messen und nach Bedarf erweitern. Bewusstsein und Gefühle wie bei Tieren (und Menschen) gehören danach nicht notwendig zur (maschinellen) Intelligenz.

 

Neuronale Netze und Machine Learning

 

Unter Künstlicher Intelligenz verstehen wir heute vor allem maschinelles Lernen mit vereinfachten Modellen des Gehirns. In graphischen Modellen neuronaler Netze werden Neuronen (Nervenzellen) durch Knoten dargestellt und durch Pfeile verbunden, die für Synapsen als Signalverbindungen der Neuronen stehen. Die Pfeile im Modell, wie es auf dem Cover meines Buches zu sehen ist, sind durch Zahlen gewichtet, mit denen die Intensität der neurochemischen Verbindung durch Synapsen angezeigt wird. Aufgrund der Hebbschen Regel feuern Neuronen ein Aktionspotential ab bzw. sind erregt, wenn die Summe der gewichteten Inputs von Nachbarzellen einen Schwellenwert überschreitet. Zudem sind die Neuronen in Schichten angeordnet, was dem Aufbau des Neocortex im menschlichen Gehirn entspricht.

Lernen bedeutet auf der neuronalen Ebene, dass erregte Neuronen sich in Mustern verschalten. Aus der Neuropsychologie wissen wir, dass unterschiedliche Verschaltungsmuster mit verschiedenen kognitiven Zuständen wie Wahrnehmungen, Vorstellungen, Gefühlen, Denken und Bewusstsein verbunden sind. Im Modell neuronaler Netze werden diese Verschaltungsvorgänge durch Lernalgorithmen modelliert, mit denen die synaptischen Zahlengewichte verändert werden, da sie für die Intensität der jeweiligen neurochemischen Stärke der synaptischen Verbindungen in einem Verschaltungsmuster stehen.

Ähnlich wie in der Psychologie werden verschiedenen Arten von Lernalgorithmen unterschieden. Beim überwachten Lernen wird dem neuronalen Netz zunächst ein Prototyp beigebracht. Das könnte z.B. das Verteilungsmuster der farbigen Pixel eines Gesichts sein. Die lokalen Stärken von Färbungen und Schattierungen werden durch entsprechende synaptische Zahlengewichte dargestellt. Man spricht auch vom Trainieren eines neuronalen Netzes, um die Zahlengewichte passend einzustellen. Durch Abgleich mit einem eintrainierten Prototyp kann ein Gesicht unter einer Vielzahl von Gesichtern (z.B. bei einer Polizeifahndung) wiedererkannt werden.

Beim nicht-überwachten Lernen ist das neuronale Netz in der Lage, selbstständig Ähnlichkeiten von Daten zu erkennen, um sie entsprechend zu klassifizieren. So kommt es, dass solche neuronalen Netze mit ihren Algorithmen das Gesicht z.B. einer Katze erkennen können, ohne vorher beigebracht bekommen zu haben, was eine Katze überhaupt sei.

Beim verstärkenden Lernen (reinforcement learning) wird dem System eine Aufgabe gestellt, die es dann mehr oder weniger selbstständig lösen soll. Es könnte sich z.B. um einen Roboter handeln, der selbstständig einen Weg zu einem vorgegebenen Ziel finden soll. Beim Lösen dieser Aufgabe bekommt der Roboter ständig Rückmeldungen (rewards) in bestimmten Zeitintervallen, wie gut oder wie schlecht er dabei ist, den Weg bzw. die Aufgabenlösung zu finden. Die Lösungsstrategie besteht darin, diese Folge von Rückmeldungen zu optimieren.

Deep Learning bezieht sich einfach auf die Tiefe des neuronalen Netzes, die der Anzahl der neuronalen Schichten entspricht. Bei einem Wahrnehmungsvorgang werden auf der ersten neuronalen Schicht nur farbige Pixel unterschieden, die auf der nächsten Schicht zu Ecken und Kanten verbunden werden, um auf der dritten Schicht in Teilen von Gesichtern eingefügt zu werden und schließlich auf der vierten Schicht ganze Gesichter wiederzugeben. Was im mathematischen Modell schon seit den 1980er Jahren bekannt war, wird erst seit wenigen Jahren technisch realisierbar, da nun die notwendige Rechenpower vorliegt (z.B. Google Brain mit einer Million Neuronen und einer Milliarde Synapsen). Dabei ist die Technik keineswegs an die kleine Zahl von neuronalen Schichten im Gehirn gebunden, sondern lässt sich je nach zur Verfügung stehender Rechenpower beliebig steigern, um die Effizienz des Systems zu verbessern.

 

Machine Learning in Wissenschaft und Medizin

 

Mustererkennung ist eine Stärke des maschinellen Lernens, das mittlerweile auch in verschiedenen Wissenschaften zur Anwendung kommt. Im August letzten Jahres meldete CERN, dass nunmehr das Higgs-Teilchen endgültig entdeckt sei – aber nicht durch einen menschlichen Physiker, sondern durch maschinelles Lernen. Tatsächlich wäre auch ein menschliches Gehirn nicht in der Lage, die Milliarden von Daten zu klassifizieren, die bei den Kollisionen von Protonen im Elementarteilchenbeschleuniger ständig erzeugt werden.  Aber vorher musste der theoretische Physiker Higgs aus einer physikalischen Theorie (Standardmodell der Elementarteilchenphysik) die Existenz dieses Teilchens vorhersagen, insbesondere den dadurch ausgelösten Zerfall in andere Teilchen. Damit lag eine „Fingerabdruck“ vor, um die Nadel im Heuhaufen zu entdecken. Man spricht von einem Signalereignis, das von den Milliarden anderen Hintergrundereignissen zu trennen war. Das leistete ein Algorithmus des überwachten Lernens gewissermaßen wie bei einer Polizeifahndung.

In der Medizin kann z.B. in einem Gewebeschnitt der „Fingerabdruck“ von Krebszellen unter normalen Lymphknoten durch maschinelles Lernen erkannt werden. Auch in der Arzneimittelentwicklung kommt maschinelles Lernen mittlerweile zum Einsatz, um die Entwicklungszeit und damit verbundene Kosten drastisch zu senken. IBM Watson for Drug Discovery liest Millionen von Seiten (Big Data mining), um ihre Bedeutung für Forschungsziele (target identification and validation) zu erkennen. In wenigen Monaten wurden so fünf RNA-bindende Proteine RBPs entdeckt, die zuvor nie mit amyotropher Lateralsklerose (ALS) in Verbindung gebracht wurden (Acta Neuropathologica 2018).

 

Vom statistischen zum kausalen Lernen

 

Ein hochaktuelles Anwendungsbeispiel sind selbstlernende Fahrzeuge: Um das Prinzip zu erläutern, können wir uns vereinfacht ein elektrisches Spielzeugauto vorstellen, das rund herum mit Sensoren ausgestattet ist. Die Sensoren (z.B. Nachbarschaft, Licht, Kollision) seien mit den Neuronen eines neuronalen Netzwerks verbunden. Werden benachbarte Sensoren bei einer Kollision mit einem äußeren Gegenstand erregt, dann auch die mit den Sensoren verbundenen Neuronen. So entsteht im neuronalen Netz ein Verschaltungsmuster, das den äußeren Gegenstand repräsentiert. Im Prinzip ist dieser Vorgang ähnlich wie bei der Wahrnehmung eines äußeren Gegenstands durch einen Organismus – nur dort sehr viel komplexer. Wenn wir uns nun noch vorstellen, dass dieses Automobil mit einem „Gedächtnis“ (Datenbank) ausgestattet wird, mit dem es sich solche gefährlichen Kollisionen merken kann, um sie in Zukunft zu vermeiden, dann ahnt man, wie die Automobilindustrie in Zukunft unterwegs sein wird, selbst-lernende Fahrzeuge zu bauen.

Hier zeigt sich aber eine grundlegende Schwäche des derzeitigen maschinellen Lernens: Wie viele reale Unfälle sind erforderlich, um selbstlernende – „autonome“ – Fahrzeuge zu trainieren? Wer ist verantwortlich, wenn autonome Fahrzeuge in Unfälle verwickelt sind? Welche ethischen und rechtlichen Herausforderungen stellen sich? Bei komplexen Systemen wie neuronalen Netzen mit Tausenden oder sogar Millionen von Elementen erlauben zwar die Gesetze der statistischen Physik, globale Aussagen über Trend- und Konvergenzverhalten des gesamten Systems zu machen. Die Zahl der Parameter ist jedoch unter Umständen so groß (vgl. das vorher erwähnte Google Brain), dass keine lokalen Ursachen ausgemacht werden können. Die neuronalen Netze sind also eine Black Box, die mit Big Data trainiert wird, um gewünschtes Verhalten zu erzeugen. Keiner weiß im Einzelnen, was dort in der Black Box abgeht. Wenn aber Ursachen und Wirkungen nicht klar zu unterscheiden sind, lassen sich rechtliche und ethische Fragen der Verantwortung nicht klären. Ehe wir also über Ethik und Recht sprechen, müssen wir unsere Hausaufgaben in der Grundlagenforschung des maschinellen Lernens machen.

Tatsächlich ist das maschinelle Lernen häufig nur Statistik mit Lernalgorithmen und neuronalen Netzen – mathematisch keineswegs spektakulär wie in den Medien suggeriert. Jeder Anfänger der Statistik weiß, dass statistische Korrelationen keine kausalen Erklärungen ersetzen können: Wenn eine günstige statistische Korrelation zwischen einer chemischen Substanz und dem Abnehmen eines Krebstumors gefunden wurde, ist das noch keine Garantie für ein nachhaltiges Medikament. Dazu muss man das Grundlagenwissen über die kausalen Wachstumsgesetze eines Tumors und biochemische Grundgesetze kennen. Mit diesem Beispiel verbinde ich eine grundsätzliche Feststellung für den heutigen KI-Hype: Einige glauben damit ja bereits auf Wasser gehen und alle Probleme dieser Welt in absehbarer Zeit mit „KI“ lösen zu können. Erfolgreich sind diese KI-Methoden aber nur dann, wenn sie mit Fachwissen und Theorie aus den jeweiligen Anwendungsgebieten (wie in den genannten Beispielen der Physik, Medizin und Ingenieurwissenschaften) verbunden werden.

Statistisches Lernen und Schließen ist jedenfalls nur schwache KI, die jeder einfache Organismus in der Natur auch ohne statistische Formeln bewältigt: Selbst ein Wurm wird nach gehäuften Erfahrungen von gefährlichen Situationen davor zurückschrecken. Was über statistische Mustererkennung in Daten hinausgeht, ist die Fähigkeit zu kausalem Lernen und Schließen. Am Anfang neuzeitlicher Physik war Newton nicht an statistischen Datenkorrelationen der herabfallenden Äpfel vom Apfelbaum interessiert, obwohl das immer wieder als Motivation erzählt wurde. Ihn interessierte das kausale Gesetz hinter den beobachtbaren Datenwolken, in diesem Fall das Gravitationsgesetz, das in einer mathematischen Gleichung berechnet werden kann. Daraus entwickelte er ein Planetenmodell, das durch Experiment und Beobachtung bestätigt wurde und exakte Voraussagen erlaubte. Gibt es Algorithmen, mit denen sich kausale Modelle unter geeigneten Bedingungen finden lassen? Dieses kausale Lernen wäre ein erster Schritt in Richtung einer starken KI. Tatsächlich ist kausales Lernen mittlerweile Thema theoretischer Grundlagenforschung, an der ich auch beteiligt bin. Aber es bedarf noch vieler Forschung, bis einmal eine Software z.B. in einem biochemischen Datensatz automatisch ein kausales Erklärungsmodell entdecken und damit eine begründete medizinische Diagnose geben kann. Wie sicher ist jedoch ein Softwareprogramm, wenn es zunehmend mehr oder weniger intelligente Entscheidungen selbstständig treffen soll?

 

Sicherheit und Vertrauen durch logische Beweise?

 

In der jüngsten Vergangenheit illustrieren dramatische Unfälle die Gefahren von Softwarefehlern und Systemversagen bei sicherheitskritischen Systemen. Programmfehler und Systemversagen können zu Katastrophen führen: In der Medizin verursachten 1985-87 massive Überdosierungen durch die Software eines Bestrahlungsgeräts teilweise den Tod von Patienten. 1996 sorgte die Explosion der Rakete Ariane 5 aufgrund eines Softwarefehlers für Aufsehen. Jüngstes Beispiel sind Softwarefehler und Systemversagen von Boeing 737 max. Nun gehören Verifikationsprüfungen traditionell zum festen Bestanteil einer Programmentwicklung im Software Engineering. Nach Feststellung der Anforderungen, dem Design und der Implementation eines Computerprogramms erfolgt in der Regel seine Verifikation und schließlich für die Dauer seiner Anwendung eine ständige Wartung.

Ein Computerprogramm heißt korrekt bzw. zertifiziert, falls verifiziert werden kann, dass es einer gegebenen Spezifikation folgt. Praktisch angewendet werden Verifikationsverfahren mit unterschiedlichen Graden der Genauigkeit und damit der Verlässlichkeit. Aus Zeit-, Aufwands- und Kostengründen begnügen sich viele Anwender allerdings nur mit Stichprobentests. Im Idealfall müsste ein Computerprogramm aber so sicher sein wie ein mathematischer Beweis. Dazu wurden Beweisprogramme („Beweisassistenten“) entwickelt, mit denen ein Computerprogramm automatisch oder interaktiv mit einem Nutzer auf Korrektheit überprüft wird.

Die Idee stammt ursprünglich aus der mathematischen Beweistheorie des frühen 20. Jahrhunderts, als bedeutende Logiker und Mathematiker wie David Hilbert, Kurt Gödel und Gerhard Gentzen mathematische Theorien formalisierten, um dann z.B. die Korrektheit, Vollständigkeit oder Widerspruchsfreiheit dieser Formalismen (und damit der betreffenden mathematischen Theorien) zu beweisen. Die Formalismen sind nun Computerprogramme. Ihre Korrektheitsbeweise müssen selber konstruktiv sein, um jeden Zweifel ihrer Sicherheit auszuschließen. Sowohl an der LMU als auch an der TU München werden Beweisassistenten untersucht. Persönlich arbeite ich gerne mit dem französischen Beweisassistenten Coq, der u.a. auf den französischen Logiker und Mathematiker Thierry Coquand zurückgeht und im Namen an das französische Wappentier des stolzen Hahns erinnert. Seit meinem Studium – und das Kompliment passt auf dieser Veranstaltung deutsch-französischer Kooperation – bewundere ich die französische Mathematik.

Hier zeigt sich sehr klar, wie aktuelle Fragen der Sicherheit moderner Software und KI in Grundlagenfragen der Logik und Philosophie verwurzelt sind. Derzeit beschäftige ich mich mit der Frage, wie das moderne maschinelle Lernen durch solche Beweisassistenten kontrolliert werden kann. Am Ende geht es um die Herausforderung, ob und wie man KI-Programme zertifizieren kann, bevor man sie auf die Menschheit loslässt. Statistisches Lernen, wie es heute praktiziert wird, funktioniert zwar häufig in der Praxis, aber die kausalen Abläufe bleiben oft unverstanden und eine Black Box. Statistisches Testen und Probieren reicht für sicherheitskritische Systeme nicht aus. Daher plädiere ich in der Zukunft für eine Kombination von kausalem Lernen mit zertifizierten KI-Programmen durch Beweisassistenten, auch wenn das für Praktiker aufwendig und ambitioniert erscheinen mag.

 

Technikgestaltung und Verantwortung

 

KI-Programme treten mittlerweile aber nicht nur in einzelnen Robotern und Computern auf. So steuern bereits lernfähige Algorithmen die Prozesse einer vernetzten Welt mit exponenziell wachsender Rechenkapazität. Ohne sie wäre die Datenflut im Internet nicht zu bewältigen, die durch Milliarden von Sensoren und vernetzten Geräten erzeugt wird. Aufgrund der Sensoren kommunizieren nun also auch Dinge miteinander und nicht nur Menschen. Daher sprechen wir vom Internet der Dinge (Internet of Things: IoT).

Im industriellen Internet („Industrie 4.0“) wird das Internet der Dinge auf die Industrie- und Arbeitswelt angewendet. In Industrie 4.0 werden Künstliche Intelligenz und Machine Learning in den Arbeitsprozess integriert. Werkstücke kommunizieren untereinander, mit Transporteinrichtungen und beteiligten Menschen, um den Arbeitsprozess flexibel zu organisieren. Produkte können so individuell zur gewünschten Zeit nach Kundenwünschen erstellt werden. Technik, Produktion und Markt verschmelzen zu einem soziotechnischen System, das sich selber flexibel organisiert und sich verändernden Bedingungen automatisch anpassen soll. Dazu müssen Maschinen- und Sensordaten mit Textdokumenten verbunden, erfasst, transportiert, analysiert und kommuniziert werden. In der Medizin und im Gesundheitssystem sind die großen Klinikzentren wie z.B. Großhadern (LMU) oder rechts der Isar (TUM) in München Beispiele solcher komplexen Infrastrukturen, deren Koordination von Patienten, Ärzten, medizinischem Personal, technischen Geräten, Robotik und anderen Dienstleistern ohne IT- und KI-Unterstützung nicht mehr steuerbar wäre.

Die sicherheitskritischen Herausforderungen, die wir eben erörtert haben, werden sich in solchen Infrastrukturen noch einmal potenzieren. Darüber hinaus stellt sich aber die Frage nach der Rolle des Menschen in einer mehr oder weniger automatisierten Welt. Ich plädiere daher für Technikgestaltung, die über Technologiefolgenabschätzung hinausgeht. Die traditionelle Sicht, die Entwickler einfach werkeln zu lassen und am Ende die Folgen ihrer Ergebnisse zu bewerten, reicht aus Erfahrung nicht aus. Am Ende kann das Kind in den Brunnen gefallen sein und es ist zu spät. Nun lässt sich zwar Innovation nicht planen. Wir können aber Anreize für gewünschte Ergebnisse setzen. Ethik wäre dann nicht Innovationsbremse, sondern Anreiz zu gewünschter Innovation. Eine solche ethische, rechtliche, soziale und ökologische Roadmap der Technikgestaltung für KI-Systeme würde der Grundidee der sozialen Marktwirtschaft entsprechen, nach der ein Gestaltungsspielraum für Wettbewerb und Innovation gesetzt wird. Maßstab bleibt die Würde des einzelnen Menschen, wie sie im Grundgesetz der Verfassung als oberstes Axiom der parlamentarischen Demokratie festgelegt ist.

Diese ethische Positionierung im weltweiten Wettbewerb der KI-Technologie ist keineswegs selbstverständlich. Für die globalen IT- und KI-Konzerne des Silicon Valley geht es am Ende um ein erfolgreiches Geschäftsmodell, auch wenn sie IT-Infrastrukturen in weniger entwickelten Ländern unter von Ihnen vorgegeben Geschäftsbedingungen fördern. Der andere globale Wettbewerber heißt China, der seinen Staatsmonopolismus im Projekt der Seidenstraße strikt befolgt. Das chinesische Projekt des Social Core ist eng mit dem ehrgeizigen Ziel verbunden, die schnellsten Superrechner und leistungsfähigsten KI-Programme der Welt zu produzieren. Nur so lässt sich der Social Core mit der totalen Datenerfassung aller Bürgerinnen und Bürger und ihrer zentralen Bewertung realisieren. Der oberste Wertmaßstab ist hier eine kollektive Harmonie und Sicherheit des Staates, die der konfuzianischen Tradition dieses Landes keineswegs fremd.

Wieder mit Blick auf den französischen Partner dieser Veranstaltung: Auch hier hat uns die „Grande Nation“ mit der Proklamation der Menschenrechte in der französischen Revolution ein verpflichtendes Erbe in Europa hinterlassen. Diese Ideen wurzeln tief in der philosophischen und religiösen Tradition Europas. Wir brauchen zwar zertifizierte KI-Algorithmen als verlässliche Dienstleistung zur Bewältigung zivilisatorischer Komplexität. Entscheidend ist aber auch eine Stärkung der menschlichen Urteilskraft und Wertorientierung, damit uns Algorithmen und Big Data nicht aus dem Ruder laufen. Im weltweiten Wettbewerb der KI-Systeme sollten wir unsere Lebenswelt nach unseren Wertmaßstäben selber gestalten können.

Weitere Medien vom Autor / Thema: Naturwissenschaft | Medizin | Technik

Aktuelle Veranstaltungen zum Thema: Naturwissenschaft | Medizin | Technik

Heinrich-Böll-Stiftung Berlin / Wikimedia Commons
Vom Großen und Ganzen
Der Podcast der Katholischen Akademie in Bayern und der Zeitschrift „Christ in der Gegenwart“
Freitag, 25.04. - Mittwoch, 31.12.2025
Masmikha/shutterstock
Rohstoffe für die Energiewende
Lieferketten, Abhängigkeiten und Verantwortung
Dienstag, 29.04.2025
Zukunftsverantwortung für Gesellschaft, Politik und Land-Wirtschaft
Dienstag, 13.05.2025
Zeichnungen von Alf Lechner (1925-2017) anlässlich seines 100. Geburtstags
Montag, 19.05.2025
Eine Denkwerkstatt
Montag, 26.05.2025
Bernhard Neuhoff im Gespräch mit Sir Simon Rattle
Dienstag, 27.05.2025
EBEN European Business Ethics Network Annual Conference 2025
Donnerstag, 29.05. - Samstag, 31.05.2025
happymore/shutterstock
Wenn das Wachstum endet
Neue Perspektiven für Religion, Wirtschaft und Gesellschaftlichkeit
Dienstag, 01.07.2025