Fachleute sind oft skeptisch, Laien teils zu vertrauensvoll
KI-Systeme erreichen in bestimmten Aufgaben der medizinischen Bildanalyse inzwischen sehr hohe Leistungen und können Fachpersonal etwa bei der Befundung unterstützen. Dennoch begegnen Fachkräfte KI-Empfehlungen in beruflichen Entscheidungskontexten häufig mit Skepsis, während Privatpersonen Chatbots bei persönlichen oder moralischen Fragen teils zu viel Gewicht geben.
Nach den Untersuchungen nutzen viele Menschen Chatbots auch bei Fragen, die persönliche Werte oder moralische Abwägungen betreffen. „Dabei unterschätzen sie häufig, wie stark die Antworten die eigene Meinungsbildung beeinflussen können. Das überhöhte Vertrauen zeigt sich nicht zuletzt darin, dass Nutzerinnen und Nutzer im Nachhinein glauben, sie wären auch ohne Unterstützung zum gleichen Ergebnis gekommen.“ so die Ergebnisse der Forschung von Wirtschaftsethiker Prof. Dr. Matthias Uhl und seinem Team von der Universität Hohenheim in Stuttgart. Denn: Chatbots haben kein eigenes Wertesystem, an dem sie ihre Antworten ausrichten. Welche moralische Position sie nahelegen, kann je nach Prompt variieren.
Laien setzen zu stark auf die KI, Fachleute ignorieren sie
Bei Fachleuten beschreibt Uhl ein entgegengesetztes Muster: KI-Empfehlungen würden im beruflichen Kontext teils eher zurückgewiesen als überschätzt. In bestimmten Aufgaben der medizinischen Bildanalyse erreichen KI-Systeme inzwischen aber sehr hohe Leistungen und können Fachpersonal bei der Befundung unterstützen.
„Je stärker sich jemand als fachlich überlegen einschätzt, desto eher werden Empfehlungen von KI-Modellen ignoriert.“
Prof. Dr. Matthias Uhl von der Universität Hohenheim in Stuttgart
Richtig eingesetzt könne die KI deshalb die Qualität medizinischer Entscheidungen verbessern. Das Vertrauensproblem sei nicht auf das Feld der Medizin beschränkt. Uhl erklärt: „Je stärker sich jemand als fachlich überlegen einschätzt, desto eher werden Empfehlungen von KI-Modellen ignoriert.“
Für beide Konstellationen zielt die Forschung auf dasselbe Grundprinzip: KI soll Entscheidungen unterstützen, aber nicht ersetzen. Um sowohl ein zu großes Vertrauen als auch eine zu große Skepsis gegenüber KI-Systemen zu vermeiden, brauche es eine bewusste und reflektierte Nutzung der Technologie. Dabei sei entscheidend, dass die Verantwortung weiterhin der Mensch trägt.
Bei Lebens- und Moralfragen wäre die KI hilfreicher, wenn sie statt platter Anweisungen auf den sogenannten sokratischen Ansatz zurückgreifen würde: „Wir haben Chatbots getestet, die bei solchen Fragen Rückfragen an die User stellen, die den Personen helfen, selbst Klarheit zu finden", berichtet Uhl. Der Chatbot soll in diesem Modell keine fertige moralische Bewertung liefern, sondern über Rückfragen zur eigenen Abwägung anregen.
So schafft KI-Gestaltung das richtige Maß an Vertrauen
Den gleichen Grundsatz, aber eine ganz andere Methode verfolgt Uhl im Fall der Expertinnen und Experten. Auch hier komme es bei der KI darauf an, sie zur Zusammenarbeit speziell zu gestalten. Für die konkrete Umsetzung arbeitet der Wirtschaftsethiker als Teil eines Teams mit Kognitionswissenschaftlerinnen und Informatikerinnen des Bayerischen Forschungsinstituts für Digitale Transformation (bidt) im Projekt „Ethische Implikation hybrider Teams aus Mensch und KI-System“ (Ethyde).
Ein Ansatz dabei sei die sogenannte Explainable-AI-Methode. Dabei muss das System möglichst transparent machen, warum es beispielsweise die medizinischen Aufnahmen als unauffällig ansieht oder eine Krankheit diagnostiziert. Das könne zum Beispiel dadurch geschehen, dass die KI die Bereiche eines Bildes einfärbt, die für ihre Diagnose ausschlaggebend waren.
Eine weitere Möglichkeit sei, sogenannte Unsicherheitsmaße mitzuliefern. Hier liefert die KI eine Einschätzung darüber, wie sicher sie sich bei einer Antwort ist. Beide Ansätze sollen helfen, KI-Empfehlungen besser einzuordnen und das Vertrauen daran auszurichten, wie belastbar die jeweilige Einschätzung ist. Sobald das Team entsprechende KI-Anwendungen angepasst hat, will das Team diese Technik mit medizinischen Bildern und Fachpersonal auf Medizinkongressen testen. „Bis Ende 2027 wollen wir die ersten getesteten Prototypen vorstellen können“, sagt Uhl.
Krügel, S., Ostermaier, A. & Uhl, M. Justification optional: ChatGPT’s advice can still influence human judgments about moral dilemmas. AI Ethics 6, 120 (2026). https://doi.org/10.1007/s43681-026-01005-6


169
169

