banner
Nachrichtenzentrum
Umfangreiche Vertriebs- und Produktionskompetenz

Warum künstliche Intelligenz Konsequenzen verstehen muss

Sep 13, 2023

Neil Savage ist ein freiberuflicher Autor in Lowell, Massachusetts.

Sie können diesen Autor auch in PubMed Google Scholar suchen

Bildnachweis: Neil Webb

Sie haben über Ihre Institution vollen Zugriff auf diesen Artikel.

Als Rohit Bhattacharya mit seiner Doktorarbeit in Informatik begann, war es sein Ziel, ein Tool zu entwickeln, das Ärzten dabei helfen könnte, krebskranke Menschen zu identifizieren, die gut auf eine Immuntherapie ansprechen würden. Diese Form der Behandlung unterstützt das körpereigene Immunsystem bei der Bekämpfung von Tumoren und wirkt am besten gegen bösartige Wucherungen, die Proteine ​​produzieren, an die sich Immunzellen binden können. Bhattacharyas Idee bestand darin, neuronale Netzwerke zu schaffen, die ein Profil der Genetik sowohl des Tumors als auch des Immunsystems einer Person erstellen und dann vorhersagen könnten, welche Personen wahrscheinlich von einer Behandlung profitieren würden.

Doch er stellte fest, dass seine Algorithmen dieser Aufgabe nicht gewachsen waren. Er konnte Muster von Genen identifizieren, die mit der Immunantwort korrelierten, aber das reichte nicht aus1. „Ich kann nicht sagen, dass dieses spezifische Bindungsmuster oder diese spezifische Expression von Genen ein ursächlicher Faktor für die Reaktion des Patienten auf die Immuntherapie ist“, erklärt er.

Teil von Nature Outlook: Robotik und künstliche Intelligenz

Bhattacharya scheiterte an dem uralten Diktum, dass Korrelation nicht gleichbedeutend mit Kausalität sei – ein grundlegender Stolperstein in der künstlichen Intelligenz (KI). Computer können darauf trainiert werden, Muster in Daten zu erkennen, selbst Muster, die so subtil sind, dass Menschen sie möglicherweise übersehen. Und Computer können diese Muster nutzen, um Vorhersagen zu treffen – zum Beispiel, dass ein Fleck auf einem Röntgenbild der Lunge auf einen Tumor hinweist2. Aber wenn es um Ursache und Wirkung geht, sind Maschinen typischerweise ratlos. Ihnen mangelt es an einem vernünftigen Verständnis dafür, wie die Welt funktioniert, das die Menschen allein schon dadurch haben, dass sie in ihr leben. KI-Programme, die zum Beispiel darauf trainiert sind, Krankheiten in einer Lungenröntgenaufnahme zu erkennen, sind manchmal vom Weg abgekommen, indem sie sich auf die Markierungen konzentriert haben, die zur Beschriftung der rechten Seite des Bildes verwendet wurden3. Zumindest für den Menschen ist es offensichtlich, dass es keinen kausalen Zusammenhang zwischen dem Stil und der Platzierung des Buchstabens „R“ auf einem Röntgenbild und den Anzeichen einer Lungenerkrankung gibt. Aber ohne dieses Verständnis könnten Unterschiede in der Art und Weise, wie solche Markierungen gezeichnet oder positioniert werden, ausreichen, um eine Maschine in die falsche Richtung zu lenken.

Damit Computer irgendeine Art von Entscheidungsfindung durchführen können, benötigen sie ein Verständnis der Kausalität, sagt Murat Kocaoglu, Elektroingenieur an der Purdue University in West Lafayette, Indiana. „Alles, was über die Vorhersage hinausgeht, erfordert ein kausales Verständnis“, sagt er. „Wenn Sie etwas planen möchten, wenn Sie die beste Richtlinie finden möchten, benötigen Sie eine Art Kausalbegründungsmodul.“

Die Integration von Ursache-Wirkungs-Modellen in Algorithmen für maschinelles Lernen könnte mobilen autonomen Maschinen auch dabei helfen, Entscheidungen darüber zu treffen, wie sie sich in der Welt zurechtfinden. „Wenn Sie ein Roboter sind, möchten Sie wissen, was passiert, wenn Sie in diesem oder jenem Winkel einen Schritt hierher machen oder wenn Sie ein Objekt schieben“, sagt Kocaoglu.

Im Fall von Bhattacharya war es möglich, dass einige der Gene, die das System hervorhob, für eine bessere Reaktion auf die Behandlung verantwortlich waren. Mangelndes Verständnis der Kausalität bedeutete jedoch, dass es auch möglich war, dass die Behandlung die Genexpression beeinflusste – oder dass ein anderer, versteckter Faktor beides beeinflusste. Die mögliche Lösung dieses Problems liegt in der sogenannten Kausalinferenz – einer formalen, mathematischen Methode, um festzustellen, ob eine Variable eine andere beeinflusst.

Der Informatiker Rohit Bhattacharya (hinten) und sein Team am Williams College in Williamstown, Massachusetts, diskutieren über die Anpassung maschinellen Lernens für kausale Schlussfolgerungen.Quelle: Mark Hopkins

Kausale Schlussfolgerungen werden seit langem von Ökonomen und Epidemiologen verwendet, um ihre Vorstellungen über Kausalität zu testen. Der Nobelpreis für Wirtschaftswissenschaften 2021 ging an drei Forscher, die mithilfe kausaler Schlussfolgerungen Fragen stellten, etwa ob ein höherer Mindestlohn zu geringerer Beschäftigung führt oder welche Auswirkungen ein zusätzliches Schuljahr auf das zukünftige Einkommen hat. Jetzt gehört Bhattacharya zu einer wachsenden Zahl von Informatikern, die daran arbeiten, Kausalität mit KI zu verbinden, um Maschinen die Fähigkeit zu geben, solche Fragen zu beantworten und ihnen dabei zu helfen, bessere Entscheidungen zu treffen, effizienter zu lernen und sich an Veränderungen anzupassen.

Eine Vorstellung von Ursache und Wirkung hilft dabei, den Menschen durch die Welt zu führen. „Wenn wir über ein kausales Modell der Welt verfügen, auch über ein unvollkommenes – denn das ist es, was wir haben –, können wir fundiertere Entscheidungen und Vorhersagen treffen“, sagt Yoshua Bengio, ein Informatiker, der das Mila – Quebec Artificial Intelligence Institute leitet, eine Zusammenarbeit zwischen vier Universitäten in Montreal, Kanada. Das Verständnis des Menschen für Kausalität unterstützt Eigenschaften wie Vorstellungskraft und Bedauern; Computern eine ähnliche Fähigkeit zu verleihen, könnte ihre Fähigkeiten verändern.

Die wichtigsten Erfolge der KI im letzten Jahrzehnt – wie der Sieg gegen Menschen bei verschiedenen Wettbewerbsspielen, die Identifizierung des Inhalts von Bildern und in den letzten Jahren die Generierung von Texten und Bildern als Reaktion auf schriftliche Eingabeaufforderungen – wurden durch Deep Learning vorangetrieben. Durch die Untersuchung riesiger Datenmengen lernen solche Systeme, wie etwas mit dem anderen zusammenhängt. Diese erlernten Assoziationen können dann genutzt werden. Aber das ist nur die erste Stufe auf der Leiter zu einem höheren Ziel: etwas, das Judea Pearl, Informatikerin und Direktorin des Cognitive Systems Laboratory an der University of California, Los Angeles, als „tiefes Verständnis“ bezeichnet.

Im Jahr 2011 gewann Pearl den AM Turing Award, der oft als Nobelpreis für Informatik bezeichnet wird, für seine Arbeit zur Entwicklung eines Kalküls, der probabilistisches und kausales Denken ermöglicht. Er beschreibt eine dreistufige Argumentationshierarchie4. Die Grundebene ist das „Sehen“ oder die Fähigkeit, Assoziationen zwischen Dingen herzustellen. Heutige KI-Systeme sind darin äußerst gut. Pearl bezeichnet die nächste Ebene als „Tun“ – etwas ändern und beobachten, was passiert. Hier kommt die Kausalität ins Spiel.

Ein Computer kann ein Kausalmodell entwickeln, indem er Interventionen untersucht: wie sich Änderungen einer Variablen auf eine andere auswirken. Anstatt ein statistisches Modell der Beziehung zwischen Variablen zu erstellen, wie es bei der aktuellen KI der Fall ist, erstellt der Computer viele. In jedem Fall bleibt die Beziehung zwischen den Variablen gleich, aber die Werte einer oder mehrerer Variablen ändern sich. Diese Änderung könnte zu einem neuen Ergebnis führen. All dies kann mithilfe der Mathematik der Wahrscheinlichkeit und der Statistik ausgewertet werden. „Meiner Meinung nach geht es beim Kausalschluss lediglich um die Mathematisierung der Art und Weise, wie Menschen Entscheidungen treffen“, sagt Bhattacharya.

Yoshua Bengio (vorne) leitet das Mila – Quebec Artificial Intelligence Institute in Montreal, Kanada.Quelle: Mila-Quebec AI Institute

Bengio, der 2018 für seine Arbeit zum Thema Deep Learning den AM Turing Award gewann, und seine Schüler haben ein neuronales Netzwerk darauf trainiert, kausale Graphen5 zu erzeugen – eine Möglichkeit, kausale Zusammenhänge darzustellen. Wenn eine Variable eine andere Variable verursacht, kann dies im einfachsten Fall durch einen Pfeil dargestellt werden, der von einer zur anderen verläuft. Wenn sich die Richtung der Kausalität umkehrt, kehrt sich auch der Pfeil um. Und wenn die beiden nichts miteinander zu tun haben, gibt es keinen Pfeil, der sie verbindet. Das neuronale Netzwerk von Bengio ist darauf ausgelegt, zufällig eines dieser Diagramme zu generieren und dann zu prüfen, wie kompatibel es mit einem bestimmten Datensatz ist. Diagramme, die besser zu den Daten passen, sind mit größerer Wahrscheinlichkeit genau. Daher lernt das neuronale Netzwerk, mehr Diagramme zu generieren, die diesen ähneln, und sucht nach einem Diagramm, das am besten zu den Daten passt.

Dieser Ansatz ähnelt der Art und Weise, wie Menschen etwas herausfinden: Sie generieren mögliche kausale Zusammenhänge und gehen davon aus, dass diejenigen, die am besten zu einer Beobachtung passen, der Wahrheit am nächsten kommen. Wenn man beispielsweise beobachtet, wie ein Glas zerspringt, wenn man es auf Beton fallen lässt, könnte man denken, dass der Aufprall auf eine harte Oberfläche dazu führt, dass das Glas zerbricht. Das Fallenlassen anderer Gegenstände auf Beton oder das Klopfen eines Glases auf einen weichen Teppich aus verschiedenen Höhen ermöglicht es einer Person, ihr Beziehungsmodell zu verfeinern und den Ausgang zukünftiger Fummelei besser vorherzusagen.

Ein wesentlicher Vorteil des kausalen Denkens besteht darin, dass es die KI besser in die Lage versetzen könnte, mit veränderten Umständen umzugehen. Bestehende KI-Systeme, deren Vorhersagen nur auf Assoziationen in Daten basieren, sind äußerst anfällig für Änderungen in der Beziehung dieser Variablen. Wenn sich die statistische Verteilung erlernter Beziehungen ändert – sei es im Laufe der Zeit, durch menschliches Handeln oder durch einen anderen externen Faktor –, wird die KI ungenauer.

Melden Sie sich für den Nature-Newsletter zu Robotik und KI an

Bengio könnte beispielsweise ein selbstfahrendes Auto auf seinen örtlichen Straßen in Montreal trainieren und die KI könnte das Fahrzeug sicher steuern. Aber wenn man das gleiche System nach London exportiert, würde es aus einem einfachen Grund sofort kaputt gehen: Autos werden in Kanada auf der rechten Seite und im Vereinigten Königreich auf der linken Seite gefahren, sodass einige der Beziehungen, die die KI gelernt hatte, umgekehrt wären. Er könnte die KI mit Daten aus London von Grund auf neu trainieren, aber das würde Zeit brauchen und bedeuten, dass die Software in Montreal nicht mehr funktionieren würde, weil ihr neues Modell das alte ersetzen würde.

Ein Kausalmodell hingegen ermöglicht es dem System, viele mögliche Zusammenhänge kennenzulernen. „Anstatt nur eine Reihe von Beziehungen zwischen all den Dingen zu haben, die man beobachten kann, gibt es unendlich viele“, sagt Bengio. „Sie haben ein Modell, das berücksichtigt, was bei jeder Änderung einer der Variablen in der Umgebung passieren könnte.“

Der Mensch operiert mit einem solchen Kausalmodell und kann sich daher schnell an Veränderungen anpassen. Ein kanadischer Fahrer könnte nach London fliegen und, nachdem er sich ein paar Augenblicke gewöhnen musste, problemlos auf der linken Straßenseite fahren. Die britische Straßenverkehrsordnung besagt, dass Rechtsabbieger im Gegensatz zu Kanada mit querendem Verkehr verbunden sind, sie hat jedoch keinen Einfluss darauf, was passiert, wenn der Fahrer das Lenkrad dreht, oder wie die Reifen mit der Straße interagieren. „Alles, was wir über die Welt wissen, ist im Wesentlichen dasselbe“, sagt Bengio. Die kausale Modellierung ermöglicht es einem System, die Auswirkungen einer Intervention zu identifizieren und sie in seinem bestehenden Weltverständnis zu berücksichtigen, anstatt alles von Grund auf neu lernen zu müssen.

Judea Pearl, Direktorin des Cognitive Systems Laboratory an der University of California, Los Angeles, gewann den AM Turing Award 2011.Quelle: UCLA Samueli School of Engineering

Diese Fähigkeit, sich mit Veränderungen auseinanderzusetzen, ohne alles, was wir wissen, zu verwerfen, ermöglicht es dem Menschen auch, Situationen zu verstehen, die nicht real sind, wie zum Beispiel Fantasy-Filme. „Unser Gehirn ist in der Lage, uns in eine erfundene Umgebung zu projizieren, in der sich einige Dinge verändert haben“, sagt Bengio. „Die Gesetze der Physik sind unterschiedlich, oder es gibt Monster, aber der Rest ist derselbe.“

Die Fähigkeit zur Vorstellungskraft steht an der Spitze von Pearls Hierarchie des kausalen Denkens. Der Schlüssel dazu, sagt Bhattacharya, liegt in der Spekulation über die Ergebnisse nicht ergriffener Maßnahmen.

Bhattacharya erklärt seinen Schülern solche kontrafaktischen Zusammenhänge gerne, indem er ihnen „The Road Not Taken“ von Robert Frost vorliest. In diesem Gedicht spricht der Erzähler davon, dass er sich zwischen zwei Wegen durch den Wald entscheiden muss, und drückt sein Bedauern darüber aus, dass er nicht wissen kann, wohin der andere Weg führt. „Er stellt sich vor, wie sein Leben aussehen würde, wenn er den einen oder anderen Weg einschlagen würde“, sagt Bhattacharya. Genau das möchten Informatiker mit Maschinen nachahmen, die kausale Schlussfolgerungen ziehen können: die Fähigkeit, „Was-wäre-wenn“-Fragen zu stellen.

Sich vorzustellen, ob das Ergebnis besser oder schlechter ausgefallen wäre, wenn wir anders gehandelt hätten, ist eine wichtige Lernmethode für Menschen. Bhattacharya sagt, es wäre nützlich, der KI eine ähnliche Fähigkeit zu verleihen, was als „kontrafaktisches Bedauern“ bekannt ist. Die Maschine könnte Szenarien auf der Grundlage von Entscheidungen ausführen, die sie nicht getroffen hat, und quantifizieren, ob es besser gewesen wäre, eine andere zu treffen. Einige Wissenschaftler haben bereits kontrafaktisches Bedauern genutzt, um einem Computer dabei zu helfen, sein Pokerspiel zu verbessern6.

Die Fähigkeit, sich verschiedene Szenarien vorzustellen, könnte auch dazu beitragen, einige der Einschränkungen bestehender KI zu überwinden, beispielsweise die Schwierigkeit, auf seltene Ereignisse zu reagieren. Per Definition, sagt Bengio, tauchen seltene Ereignisse in den Daten, auf denen ein System trainiert wird, wenn überhaupt, nur spärlich auf, sodass die KI nichts über sie lernen kann. Eine Person, die ein Auto fährt, kann sich ein Ereignis vorstellen, das sie noch nie gesehen hat, beispielsweise die Landung eines kleinen Flugzeugs auf der Straße, und ihr Verständnis dafür nutzen, wie die Dinge funktionieren, um mögliche Strategien zu entwickeln, um mit dieser spezifischen Eventualität umzugehen. Ein selbstfahrendes Auto ohne die Fähigkeit zum kausalen Denken könnte jedoch bestenfalls auf eine generische Reaktion auf ein Objekt auf der Straße zurückgreifen. Durch die Verwendung von Kontrafakten zum Erlernen von Regeln für die Funktionsweise könnten Autos besser auf seltene Ereignisse vorbereitet werden. Das Arbeiten mit Kausalregeln anstelle einer Liste früherer Beispiele macht das System letztendlich vielseitiger.

Die Nutzung von Kausalität zur Programmierung der Vorstellungskraft in einem Computer könnte sogar zur Schaffung eines automatisierten Wissenschaftlers führen. Während eines von Microsoft Research gesponserten Online-Gipfels im Jahr 2021 schlug Pearl vor, dass ein solches System eine Hypothese erstellen, die beste Beobachtung zum Testen dieser Hypothese auswählen und dann entscheiden könnte, welches Experiment diese Beobachtung liefern würde.

Im Moment ist dies jedoch noch Zukunftsmusik. Die Theorie und die grundlegende Mathematik des Kausalschlusses sind gut etabliert, aber die Methoden für die KI zur Realisierung von Interventionen und Kontrafaktualen befinden sich noch in einem frühen Stadium. „Das ist immer noch sehr grundlegende Forschung“, sagt Bengio. „Wir sind gerade dabei, die Algorithmen auf eine sehr grundlegende Weise herauszufinden.“ Sobald die Forscher diese Grundlagen verstanden haben, müssen die Algorithmen optimiert werden, damit sie effizient funktionieren. Es ist ungewiss, wie lange das alles dauern wird. „Ich habe das Gefühl, dass wir alle konzeptionellen Werkzeuge haben, um dieses Problem zu lösen, und es ist nur eine Frage von ein paar Jahren, aber normalerweise dauert es länger, als man erwartet“, sagt Bengio. „Stattdessen könnte es Jahrzehnte dauern.“

Mehr von Nature Outlooks

Bhattacharya ist der Meinung, dass Forscher vom maschinellen Lernen Abstand nehmen sollten, dessen rasante Verbreitung zum Teil darauf zurückzuführen ist, dass Programmierer Open-Source-Software entwickelt haben, die anderen Zugang zu den grundlegenden Werkzeugen zum Schreiben von Algorithmen verschafft. Äquivalente Werkzeuge zur kausalen Schlussfolgerung könnten einen ähnlichen Effekt haben. „In den letzten Jahren gab es viele aufregende Entwicklungen“, sagt Bhattacharya, darunter einige Open-Source-Pakete des Technologieriesen Microsoft und der Carnegie Mellon University in Pittsburgh, Pennsylvania. Er und seine Kollegen entwickelten außerdem ein Open-Source-Kausalmodul, das sie Ananke nennen. Diese Softwarepakete sind jedoch noch in Arbeit.

Bhattacharya möchte außerdem, dass das Konzept der kausalen Folgerung in früheren Phasen der Computerausbildung eingeführt wird. Derzeit, sagt er, werde das Thema hauptsächlich auf Hochschulniveau gelehrt, während maschinelles Lernen in der Grundausbildung weit verbreitet sei. „Das Kausaldenken ist so grundlegend, dass ich hoffe, dass es in vereinfachter Form auch auf der Oberstufenebene eingeführt wird“, sagt er.

Wenn es diesen Forschern gelingt, Kausalität in die Datenverarbeitung einzubauen, könnte dies die KI auf ein völlig neues Niveau der Komplexität bringen. Roboter könnten sich leichter durch die Welt navigieren. Selbstfahrende Autos könnten zuverlässiger werden. Programme zur Bewertung der Aktivität von Genen könnten zu einem neuen Verständnis biologischer Mechanismen führen, was wiederum die Entwicklung neuer und besserer Medikamente ermöglichen könnte. „Das könnte die Medizin verändern“, sagt Bengio.

Sogar etwas wie ChatGPT, der beliebte Generator für natürliche Sprache, der Texte erzeugt, die sich lesen, als ob sie von einem Menschen geschrieben worden wären, könnte von der Einbeziehung der Kausalität profitieren. Im Moment verrät sich der Algorithmus selbst, indem er klar geschriebene Prosa produziert, die sich selbst widerspricht und im Widerspruch zu dem steht, was wir über die Welt als wahr wissen. Mit der Kausalität konnte ChatGPT einen kohärenten Plan für das, was es sagen wollte, erstellen und sicherstellen, dass es mit den uns bekannten Fakten übereinstimmte.

Als er gefragt wurde, ob dies die Schriftsteller aus dem Geschäft bringen würde, sagte Bengio, dass dies einige Zeit dauern könnte. „Aber wie wäre es, wenn Sie in zehn Jahren Ihren Job verlieren, aber vor Krebs und Alzheimer gerettet werden“, sagt er. "Das ist ein guter Deal."

doi: https://doi.org/10.1038/d41586-023-00577-1

Dieser Artikel ist Teil von Nature Outlook: Robotics and Artificial Intelligence, einer redaktionell unabhängigen Beilage, die mit finanzieller Unterstützung Dritter erstellt wurde. Über diesen Inhalt.

Shao, XM et al. Krebsimmunol. Res. 8, 396–408 (2020).

Artikel PubMed Google Scholar

Chiu, H.-Y., Chao, H.-S. & Chen, Y.-M. Krebserkrankungen 14, 1370 (2022).

Artikel PubMed Google Scholar

DeGrave, AJ, Janizek, JD & Lee, S.-I. Natur Mach. Intel. 3, 610–619 (2021).

Artikel Google Scholar

Pearl, J. Commun. ACM 62, 54–60 (2019).

Artikel Google Scholar

Deleu, T. et al. Vorabdruck unter https://arxiv.org/abs/2202.13903 (2022).

Brown, N., Lerer, A., Gross, S. & Sandholm, T. Vorabdruck unter https://arxiv.org/abs/1811.00164 (2019).

Referenzen herunterladen

Verlassen: die menschlichen Kosten des Versagens der Neurotechnologie

Bioinspirierte Roboter gehen, schwimmen, gleiten und fliegen

Ein Leben lang lernen

Robotern das Berühren beibringen

Einbruch in die Blackbox der künstlichen Intelligenz

Miniatur-Medizinroboter stammen aus Science-Fiction-Filmen

ChatGPT: Standard-Berichtsrichtlinien für eine verantwortungsvolle Nutzung

Korrespondenz 06.06.23

Sechs Tipps für besseres Codieren mit ChatGPT

Technologie-Feature 05, 23. Juni

Transferlernen ermöglicht Vorhersagen in der Netzwerkbiologie

Artikel 31 23. MAI

Sechs Tipps für besseres Codieren mit ChatGPT

Technologie-Feature 05, 23. Juni

Auf dem Weg zum quantenmaschinellen Lernen

Spotlight 24 23. MAI

Quantencomputer: Wofür sind sie gut?

Spotlight 24 23. MAI

Sechs Tipps für besseres Codieren mit ChatGPT

Technologie-Feature 05, 23. Juni

Den Quantencomputer-Bauplan neu schreiben

Ausblick 24. 23. MAI

Quantencomputer Schritt für Schritt kommerzialisieren

Ausblick 24. 23. MAI

Basierend auf den gemeinsamen Anstrengungen aller Mitarbeiter und Studierenden sowie der erheblichen Unterstützung aller Bereiche der Gesellschaft.

Peking, China

Hochschule für Wasserwissenschaften, Beijing Normal University

Die Animal and Plant Health Agency (APHA) ist eine Exekutivbehörde des Ministeriums für Umwelt, Ernährung und ländliche Angelegenheiten und arbeitet im Auftrag des S

Addlestone, Surrey

Agentur für Tier- und Pflanzengesundheit

Eine interdisziplinäre Forschungsorganisation, in der modernste Wissenschaft und Technologie die Entdeckung wirkungsvoller Erkenntnisse vorantreiben

Pudong New Area, Shanghai

BeiGene-Institut

Die Nanjing Forestry University liegt im östlichen Teil von Nanjing und ist eine Volluniversität.

Nanjing, Jiangsu (CN)

Nanjing Forestry University (NFU)

DMPK/PD-Vertreter in multifunktionalen Expertenteams zur Bewertung neuer chemischer Wirkstoffe

Guangzhou, Guangdong, China

BeiGene Ltd.