Interview mit KI-Forscher Martin Schrimpf

„Die KI von ChatGPT arbeitet ähnlich wie Teile des menschlichen Gehirns“

Heftarchiv Gesellschaft
br

Eine amerikanische Forschergruppe hat herausgefunden, dass das Modell Künstlicher Intelligenz, mit dem Chat­GPT arbeitet, ähnlich funktioniert wie das Sprachzentrum im menschlichen Gehirn. Stehen wir tatsächlich vor einem Durchbruch in der Entwicklung Künstlicher Intelligenz? Wird es in absehbarer Zeit doch möglich sein, Maschinen menschenähnliche Intelligenz beizubringen? Die zm haben mit dem KI-Experten Martin Schrimpf gesprochen.

Herr Schrimpf, trotz intensiver Forschung weiß auch heute noch niemand, wie das menschliche Gehirn funktioniert und zu dem kommt, was wir als Intelligenz wahrnehmen. Was macht Sie so optimistisch, dass die Informatik den Schlüssel zur Erkenntnis liefern könnte? Was sagen die Biologen zu Ihren Forschungen?

Martin Schrimpf: Mit den Biologen haben wir tatsächlich eine Kontroverse. Das ergibt sich aus den verschiedenen Ansätzen von Neurowissenschaften und KI-Forschern. Vereinfacht gesagt möchten die Biologen erst einmal verstehen, was genau die einzelnen Nervenzellen tun und wie die Kommunikation unter ihnen abläuft. Da läuft viel über funktionelle Zuordnungen und Kategorisierungen – in der Hoffnung, dass man eines Tages einmal alle Bausteine zusammen hat und zumindest einen Teil des großen Ganzen erklären kann. Das ist in etwa der Ansatz über die letzten 30 Jahre gewesen. Ich glaube inzwischen nicht mehr, dass das bei der biologischen Komplexität – wir haben Billiarden von Neuronen – zeitnah zum Erfolg führen wird.

Der modernere Ansatz besteht meiner Meinung nach darin, die neuronalen Netzwerke aus der KI zu nutzen und zu einem Verständnis der Funktionsweise von Intelligenz nicht mehr auf dem Level des einzelnen Neurons, sondern auf einer abstrakteren Ebene des Netzwerks aus den vielen Neuronen zu kommen.

Das klingt schon fast nach einer erkenntnistheoretischen Frage. Kann denn der Nicht-Biologe den Biologen das Gehirn erklären?

Natürlich wehren sich einige Biologen gegen unseren Ansatz, aber ich denke wir haben aktuell die größere Erkenntnisdynamik auf unserer Seite. Wir sagen „Der klassische Ansatz hat die letzten 30 Jahre nicht zum Ziel geführt“ und versuchen es mit dem speziellen Training von künstlichen neuronalen Netzen. Es gibt natürlich viel Kritik – gerade im Hinblick auf die mangelnde Erklärbarkeit unserer KI, Stichwort „Blackbox“, aber die Erfolge sprechen für uns. Es funktioniert einfach unglaublich gut.

Was genau tun KI-Forscher da eigentlich? Wie gehen Sie vor?

Die Ansätze in der KI-Forschung sind grundsätzlich von der biologischen Funktionsweise inspiriert. Was tut sich im Gehirn, wenn wir etwas lernen, beispielsweise ein Bild sehen? Rein physisch gesehen beginnen dann Neuronen miteinander zu kommunizieren – es entstehen Verknüpfungen und Aktivitätsmuster im Gehirn beziehungsweise in bestimmten Arealen des Gehirns. Was nun die künstlichen neuronalen Netze tun, ist genau diese Verknüpfungen zu lernen, indem sie auf sehr großen Datenmengen trainiert werden.

Das menschliche Gehirn ist die Vorlage?

Ja. Wobei die aktuelle KI-Forschung sich oft nicht mehr direkt auf die Neurowissenschaften bezieht. Für Forscher wie mich an der Schnittstelle von KI und Hirnforschung ist jedoch das biologische Vorbild das Ziel und wir ver­suchen, die Prozesse so genau wie möglich nachzuvollziehen. Am Tiermodell messen wir mit speziellen Sonden bei Rhesusaffen, welche Aktivitätsmuster im Gehirn der Tiere nach welchem beispielsweise optischen Input (Bild) entstehen. Der Forschung am menschlichen Gehirn sind natürlich Grenzen gesetzt. Hier arbeiten wir viel mit funktionellem MRT.

Und die KI soll idealerweise die biologischen Prozesse nachbauen …

… ja, die KI bekommt ebenso wie der Mensch ein Bild vorgelegt, beispielsweise von einem Hund oder einer Katze, und soll den Inhalt des Bildes dann mithilfe von Kategorisierungen als „Hund“ oder „Katze“ erkennen. Das Ganze lässt sich natürlich durch Training noch viel feiner kategorisieren – der Hund kann als „traurig“, die Katze als „kuschelig“ identifiziert werden.

Abb. 1: Während ältere KI-Modelle wie „GloVe“ (oben) die Aktivität im menschlichen Sprachzentrum nicht erklären (rot), ist die Aktivität in GPT2-xl (unten) sehr ähnlich zum Gehirn (gelb).

Und wie können Sie darauf schließen, wann die KI und das menschliche Gehirn ähnlich arbeiten? Die Aktivitätsmuster im Gehirn sind ja physisch beobachtbar, die der KI nicht? Sie können also nicht beide „nebeneinanderlegen“ und schauen, ob sie gleich ticken.

Da haben wir das natürliche Vorbild als Referenz genommen. Um beim Bildbeispiel zu bleiben, wurde sowohl der KI als auch einem menschlichen Probanden der gleiche Input gegeben und die KI musste prognostizieren, welche Hirnareale beim Anblick des Bildes welche Aktivitätsmuster entwickeln werden. Wenn wir die Ähnlichkeit von Modellen für Sprache testen, lesen wir den Probanden Text vor und zeichnen die Hirnaktivitäten auf – anschließend zeigen wir Sprachmodellen den gleichen Text und testen ob die Prognose des Modells ähnlich zur Hirnaktivität ist.

Und das stimmte überein?

Wir haben 43 verschiedene KI-Modelle getestet, bei den meisten ergaben sich nur mäßige Übereinstimmungen. Aber für das ChatGPT zugrundeliegende KI-Modell (zum Zeitpunkt der Untersuchung war es das GPT2-Modell) stimmte das teilweise 100-prozentig mit Mustern im menschlichen Sprachsystem überein.

Wie weit reicht denn die Ähnlichkeit? Gilt das für ein Wort, einen Satz oder einen größeren Text?

Für einzelne Sätze sind die Übereinstimmungen in unserer Studie so gut wie identisch – hier können wir mit den aktuellen Daten keine Unterschiede mehr erkennen. Wenn wir allerdings längere Texte nehmen, also beispielsweise vier oder fünf Minuten lange Kindergeschichten erzählen, dann nehmen die Unterschiede zu.

Wenn KI immer menschenähnlicher wird, entsteht zweifellos die Frage, ob wir es hier demnächst tatsächlich mit künstlich geschaffenen Subjekten zu tun haben?

Legt man den Turing-Test zugrunde, liegt das Unterscheidungskriterium beim Menschen selbst. Wenn die Kommunikation der Maschine nicht mehr von der des Menschen zu unterscheiden ist, haben wir es mit Intelligenz zu tun. Und viele Interaktionen mit ChatGPT sind definitiv nicht von menschlicher Kommunikation zu unterscheiden.

Eine große Gruppe um den Open-AI-Mitinitiator Elon Musk hat kürzlich eine Pause von sechs Monaten beim Training großer KI-Modelle gefordert. Bevor damit weitergemacht wird, sollen Regeln für die Forschung und Nutzung solcher KI-Modelle aufgestellt werden, weil die Risiken der Technologie sonst zu groß werden. Sind die Gefahren tatsächlich so groß und sollte Ihrer Meinung nach staatlich reguliert werden?

Jede Technologie kann natürlich potenziell auch Schaden erzeugen. Angesichts der riesigen Potenziale, die die Künstliche Intelligenz bietet, sollte auf jeden Fall ein informierter Dialog stattfinden. Hier muss die Gesellschaft definieren, was die KI tun darf und was nicht, sonst besteht tatsächlich die Gefahr, dass die ganze Technologie in Verruf gerät. Eine Regulierung wäre vor allem auch deshalb wichtig, um die Potenziale der KI für die unzähligen positiven Anwendungsgebiete zu erschließen, bei denen der Nutzen für den Menschen im Vordergrund steht.

Im Hinblick auf die Initiative der Gruppe um Musk denke ich, dass eine pauschale Pause nicht zielführend ist. Viel mehr hoffe ich wieder auf eine Demokratisierung dieser Modelle, die selbst ja auf öffentlichen Texten trainiert wurden, wie zum Beispiel Wikipedia-Artikeln und Forenbeiträgen. Das würde die Evaluierung der Mo­delle wieder für alle Forscher zugänglich machen und uns insbesondere in der Hirnforschung einen sehr vielversprechenden Kandidaten für das mensch­liche Sprachsystem liefern.

Das Gespräch führte Benn Roolf.

Literaturliste

Schrimpf, Martin; Blank, Idan A; Tuckute, Greta; Kauf, Carina; Hosseini, Eghbal A; Kanwisher, Nancy G; Tenenbaum, Joshua B; Fedorenko, Evelina: The neural architecture of language: Integrative modeling converges on predictive processing Journal Article, Proceedings of the National Academy of Sciences (PNAS), 2021. doi:10.1073/pnas.2105646118

Melden Sie sich hier zum zm-Newsletter des Magazins an

Die aktuellen Nachrichten direkt in Ihren Posteingang

zm Heft-Newsletter


Sie interessieren sich für einen unserer anderen Newsletter?
Hier geht zu den Anmeldungen zm Online-Newsletter und zm starter-Newsletter.