Große Experten-Umfrage 

ChatGPT: Warum der Nutzen überwiegt

mg
Gesellschaft
Große KI-Sprachmodelle haben das Potenzial, das Wissenschaftssystem zu revolutionieren, lautet das Ergebnis einer Umfrage des Alexander von Humboldt Instituts für Internet und Gesellschaft unter 72 Experten.

Für die Delphi-Studie wurden weltweit 72 internationale Fachleute aus den Bereichen Künstliche Intelligenz (KI) und Digitalisierungsforschung befragt. Sie kommen zu dem Schluss, dass die positiven Auswirkungen die negativen deutlich überwiegen werden, heißt es in einer Mitteilung des HIIG. Zugleich betonen sie die dringende Aufgabe von Wissenschaft und Politik, mögliche Desinformation durch große Sprachmodelle (Large Language Models, LLMs) aktiv zu bekämpfen. Sie fordern strengere rechtliche Regulierungen, mehr Transparenz und ethische Standards beim Einsatz generativer KI, um die Glaubwürdigkeit wissenschaftlicher Forschung zu wahren.

Die Studie konzentriert sich auf die Anwendungen von großen Sprachmodellen, ihre Auswirkungen auf die wissenschaftliche Praxis, ethische und rechtliche Überlegungen sowie die erforderlichen Kompetenzen für ihre effektive Nutzung.Den befragten Experten zufolge machen sich die positiven Effekte am stärksten im textuellen Bereich der wissenschaftlichen Arbeit bemerkbar. Sie steigern die Effizienz von Forschungsprozessen, indem sie verschiedene Aufgaben beim Verfassen und Veröffentlichen von wissenschaftlichen Ergebnissen automatisieren.

Schafft die Technik mehr Raum für kritisches Denken ...

Zudem ermöglichen sie eine große Entlastung für administrative Berichts- und Antragsverfahren, die in den vergangenen Jahren im Arbeitsalltag von WissenschaftlerInnen stark zugenommen haben, heißt es weiter. Die Befragten sind der Meinung, dass Forschende so wieder mehr Zeit haben, sich auf ihre Untersuchungsinhalte zu konzentrieren und ihre Ergebnisse einem breiteren Publikum zu vermitteln. Somit würden große Sprachmodelle zukünftig mehr Raum für kritisches Denken, neue Innovationen und eine breitere Kommunikation von Ergebnissen schaffen.

Neben den unbestreitbaren Vorteilen unterstreicht die Studie aber auch die Notwendigkeit, sich mit möglichen negativen Folgen für das Wissenschaftssystem auseinanderzusetzen. Große Sprachmodelle könnten missbraucht werden, um falsche, irreführende und scheinbar wissenschaftliche Behauptungen aufzustellen. Diese sind auf den ersten Blick oft schwer von echten Forschungsergebnissen zu unterscheiden. Daher könnten damit Fehlinformationen in der öffentlichen Debatte verbreitet und politische Entscheidungen beeinflusst werden.

... oder befeuert sie Desinformation und Diskriminierung?

Ein weiteres Problem sehen die Wissenschaftler in fehlerhaften Trainingsdaten von großen Sprachmodellen, durch die beispielsweise diskriminierende Stereotypen in die von ihnen produzierten Texte eingebettet werden. Diese Fehler könnten unbemerkt in wissenschaftliche Debatten eindringen, wenn Forschende LLM-generierte Inhalte ohne gründliche Überprüfung in ihre tägliche Arbeit einbeziehen. 

Um diese Herausforderungen zu bewältigen, müssten sich Wissenschaftler darum neue Kompetenzen aneignen. Dazu gehörten beispielsweise die Fähigkeit, Ergebnisse von großen Sprachmodellen kritisch zu kontextualisieren. In Zeiten, in denen die Verbreitung von Desinformationen in der Gesellschaft zunimmt, brauche es Forschende, die mit ihrer Expertise, Autorität und Reputation für die Versachlichung des öffentlichen Diskurses eintreten. Die Befragten fordern deswegen strengere gesetzliche Regelungen, eine erhöhte Transparenz der Trainingsdaten sowie verantwortungsvolle und ethische Praktiken beim Einsatz generativer KI.

„Die Ergebnisse verdeutlichen das transformative Potenzial großer Sprachmodelle in der wissenschaftlichen Forschung. Obwohl ihr enormer Nutzen die Risiken überwiegt, zeigen die ExpertInnenmeinungen aus den Bereichen KI und Digitalisierung, wie wichtig es ist, die Herausforderungen im Zusammenhang mit Fehlinformationen und dem Verlust des Vertrauens in die Wissenschaft konkret anzugehen“, sagt Dr. Benedikt Fecher, Forschungsleiter am HIIG. „Wenn wir LLMs verantwortungsvoll einsetzen und uns an ethische Richtlinien halten, können wir mit ihnen die positiven Auswirkungen maximieren und den potenziellen Schaden minimieren.“

Benedikt Fecher, Marcel Hebing, Melissa Laufer et al., Friend or Foe? Exploring the Implications of Large Language Models on the Science System, https://doi.org/10.48550/arXiv.2306.09928

Melden Sie sich hier zum zm Online-Newsletter an

Die aktuellen Nachrichten direkt in Ihren Posteingang

zm Online-Newsletter


Sie interessieren sich für einen unserer anderen Newsletter?
Hier geht zu den Anmeldungen zm starter-Newsletter und zm Heft-Newsletter.