Wieso Menschen KI-Entscheidungen häufig verschlimmbessern
Zu diesem Ergebnis kommen Forschende der Technischen Universität berlin in einer neuen Studie. Aber warum ist das so? „Erstens: Menschen wollen ihrer Rolle als Entscheider gerecht werden. Wer nur abnickt, fühlt sich überflüssig und greift ein, auch wenn das System recht hat. Zweitens: Die Zuverlässigkeit moderner KI wird unterschätzt. Seltene Fehler erscheinen überbewertet, während die hohe Gesamtleistung kaum wahrgenommen wird“, verdeutlichen die Autoren.
So entstehe ein vielfach zu beobachtendes Muster: „Menschen greifen unnötig ein und verschlimmbessern so die Gesamtleistung“, berichtet Erstautor Dr. Tobias Rieger, Psychologe an der TU Berlin. „Radiologinnen überschreiben korrekte Befunde, weil sie ihrer Rolle als finale Entscheiderinnen gerecht werden wollten. Und am Flughafen entscheiden Gepäckscreener zwar besser mit KI-Assistenz, jedoch häufig auch nicht so gut wie das System allein.“
Wie soll ein Radiologe Verantwortung übernehmen, wenn die Maschine ihm überlegen ist?
Brisant sei dieser Trend auch mit Blick auf das EU Gesetz zur Regulierung von KI: Der sogenannte AI Act fordert „wirksame menschliche Aufsicht“ für Hochrisikoanwendungen. „Doch wie soll ein Radiologe oder eine Personalabteilung Verantwortung übernehmen, wenn die Maschine statistisch klar überlegen ist?“, fragen die Forschenden. Wenn Menschen systematisch schlechter entscheiden als die KI, stelle sich die Frage, wie Aufsicht in der Praxis gestaltet werden kann, ohne die Gesamtleistung zu verschlechtern.
„Das Hauptproblem hochzuverlässiger Systeme ist die Nichtnutzung: eine Unterauslastung der Entscheidungshilfen, bei der Nutzer die Möglichkeiten dieser Systeme nicht voll ausschöpfen. Dies führt wiederum systematisch zu einer suboptimalen gemeinsamen Leistung von Mensch und System, bei der die Leistung des besseren Entscheiders allein oft nicht vom Team übertroffen wird.“
Rieger et al.
Die Maschine könnte lernen, wo der Mensch stark ist und ihm dort die Entscheidung überlassen
Ein Weg ist den Wissenschaftlern zufolge mehr Transparenz. Doch klassische Ansätze der „erklärbaren KI“ reichten nicht: Zu wissen, was ein tiefes neuronales Netzwerk ist, nütze der Radiologin wenig. Stattdessen müsse es um verhaltensleitende Erklärungen gehen. Systeme sollten ihre Stärken und Schwächen klar kommunizieren. Ein Beispiel: „Bei dieser Patientengruppe ist meine Prognose für eine Krebserkrankung besonders zuverlässig.“ So wüssten Nutzerinnen und Nutzer, wann Zustimmung angebracht ist und wann sich ein kritischer Blick lohnt.
„Dieses Problem wird sich weiter verschärfen!“
„Der Mensch beeinträchtigt häufig die Leistung der Automatisierung. Insbesondere Mensch-Automatisierungs-Dyaden schneiden häufig schlechter ab als das System allein, da der Mensch beim Versuch, Entscheidungen zu verbessern, ungünstigerweise korrekte Systemempfehlungen beeinflusst. Dieses Problem wird sich weiter verschärfen, da Systeme auf Basis künstlicher Intelligenz (KI) zuverlässiger werden und die Kluft zwischen der Leistung rein menschlicher und rein systembasierter Systeme immer größer wird.“
Zitat aus der Studie
Noch weiter reichen demnach adaptive Konzepte: Die Maschine könnte lernen, wo der Mensch stark ist und ihm in diesen Fällen die Entscheidung überlassen. Umgekehrt könnte sie nur bei Unsicherheiten Empfehlungen geben. „Das Ziel ist eine echte Synergie, in der Mensch und Maschine sich sinnvoll ergänzen. Dafür gibt es keine One-Size-Fits-All-Lösung, sondern es braucht maßgeschneiderte Ansätze für unterschiedliche Anwendungsfelder“, betont Rieger. Deswegen sollten die späteren Anwender einer KI bereits in ihre Entwicklung mit eingebunden werden.
„Der Schlüssel liegt nicht darin, Menschen aus dem Prozess zu drängen, sondern Systeme so zu gestalten, dass beide Partner einander ergänzen“, bilanzieren die Autoren. Erst dann könnten Mensch und KI gemeinsam tatsächlich bessere Entscheidungen treffen.
T. Rieger, L. Onnasch, E. Roesler and D. Manzey, „Why Highly Reliable Decision Support Systems Often Lead to Suboptimal Performance and What We Can Do About it,“ in IEEE Transactions on Human-Machine Systems, vol. 55, no. 5, pp. 736-745, Oct. 2025, doi: 10.1109/THMS.2025.3584662. keywords: {Artificial intelligence;Decision support systems;Reliability;Automation;Psychology;Reviews;Cancer;Medical diagnostic imaging;Human-machine systems;Human factors;Decision support;human–artificial intelligence (AI) interaction;human-automation interaction;performance;reliance},




