KI für die Zahnmedizin – Teil 1: Automatisierungs-Bias

Wie KI unseren klinischen Blick verzerren kann

Falk Schwendicke
,
Fabian Langenbach
,
Tabea Flügge
Künstliche Intelligenz (KI) hat sich in den vergangenen Jahren von einem theoretischen Konzept zu einem festen Bestandteil der klinischen Zahnmedizin entwickelt. Ob bei der Analyse von Röntgenbildern, der Spracherfassung oder der Vorhersage von Krankheitsverläufen – KI-basierte Systeme versprechen Effizienz, Präzision und Entlastung. Doch mit ihrem Einsatz kommt auch eine neue Form der kognitiven Verzerrung in die Disziplin: der sogenannte Automatisierungs-Bias. Dieser kann das klinische Urteil unbemerkt beeinflussen – mit Folgen für Diagnose und Therapie.

KI-Systeme beruhen auf Algorithmen, die aus großen Datenmengen Muster erkennen und daraus eigenständig Entscheidungen ableiten können. Besonders im Fokus stehen dabei maschinelles Lernen (ML) und Deep Learning (DL). Diese Technologien kommen heute in verschiedenen Bereichen der Zahnmedizin zum Tragen, unter anderem in der Bildverarbeitung (automatisierte Befundung von Röntgenbildern und Scans), der Sprachverarbeitung (Anamnese- und Befunddokumentation via Sprache) und der prädiktiven Analytik (Risikovorhersagen zu Krankheitsverläufen, zum Beispiel Kariesprogression).

Neue zm-Serie „KI für die Zahnmedizin“

Der 2019 innerhalb der Deutschen Gesellschaft für Zahn-, Mund- und Kieferheilkunde (DGZMK) gegründete Arbeitskreis „Artificial Intelligence in Dental Medicine“ (AIDM) beschäftigt sich mit den Chancen und Limitationen von KI in der zahnärztlichen Praxis. In unserer neuen Serie „KI für die Zahnmedizin“ beleuchten Mitglieder des AIDM die neuesten Ergebnisse und Erkenntnisse.

Ganz selbstverständlich wird KI schon heute zur Verbesserung der ausgegebenen Bilder in der Bildgebung eingesetzt. Die verwendeten Algorithmen der Hersteller gelten als so zuverlässig, dass wir ihnen vertrauen dürfen – und in der Praxis auch alternativlos vertrauen müssen. Bei der Sprachverarbeitung hingegen behält der Anwender die volle Kontrolle durch finales Gegenlesen der transkribierten Sprache. Etwas herausfordernder ist der Umgang mit diagnostischen Tools, deren Ergebnisse unmittelbar eine therapeutische Entscheidung beeinflussen. Hier muss sich der Nutzen in der klinischen Anwendung zeigen. Die KI tritt dem Nutzer wie ein Kollege mit einer „Zweitmeinung“ gegenüber, was durchaus produktiv sein kann.

In einer solchen Situation würde man sicher hin und wieder gern mit dem künstlichen Kollegen in einen Disput treten, um herauszufinden, wie er zu seiner Einschätzung gekommen ist. Hier wird es allerdings schwierig: KI-Systeme funktionieren teilweise wie „Black Boxes“. Das heißt, die Eingaben und Ausgaben sind sichtbar, die Entscheidungswege dazwischen jedoch oft intransparent. Das erschwert den Einsatz in der Klinik und hat bereits zu Forderungen nach einer „erklärbaren“ KI geführt.

Je nach Anwendungsfall ist KI-Software jedoch in unterschiedlichem Maß betroffen. So ist die Frage, wie die KI zu ihren Ergebnissen kommt, bei der automatisierten Befundung von Röntgenbildern beispielsweise weniger relevant, da die gefundenen Pathologien hier visualisiert werden – dies erlaubt dem Untersucher, die Logik des KI-Systems mit der eigenen Expertise und Erfahrung abzugleichen.

Die Anwendung der Technologie wird aber zur Herausforderung in der täglichen Praxis, wenn die KI die Funktion eines assistierenden und durch den Behandler überprüfbaren Werkzeugs überschreitet und – vielfach unbemerkt – intransparent generierte Empfehlungen ins ärztliche Handeln einspeist. Dabei spielt der menschliche Umgang mit dem künstlich intelligenten Pendant eine wichtige Rolle.

Es ist ein menschliches Problem

Der Automatisierungs-Bias beschreibt die Neigung, maschinellen Empfehlungen übermäßig zu vertrauen – selbst wenn sie fehlerhaft oder unklar sind. Es handelt sich nicht um ein technisches, sondern um ein menschliches Problem: Die kognitive Entlastung durch die Maschine kann das kritische Denken verdrängen.

1. Übervertrauen in maschinelle Entscheidungen: Diese Form des Automatisierungs-Bias führt dazu, dass KI-Empfehlungen ungeprüft übernommen werden, weil sie als objektiv, unfehlbar oder neutral gelten. Beispiel: Ein KI-System schlägt auf Basis eines Scores ein engmaschiges Recall-Intervall vor. Die Behandlerin übernimmt dies mechanisch – obwohl klinisch keine Risikoanzeichen bestehen.

2. Omission Bias – Verzerrung durch Unterlassen: Menschen bewerten Fehler durch Unterlassung oft milder als solche, die durch aktives Handeln entstehen. In der Zahnmedizin zeigt sich das, wenn eine Zahnärztin einer KI-Empfehlung nicht folgt, obwohl sie valide ist – aus Angst, im Fall eines Fehlers persönlich haftbar zu sein. Beispiel: Die KI erkennt in einem Bissflügelröntgen eine Läsion mit hoher Wahrscheinlichkeit, doch die Behandlerin ignoriert den Hinweis und wartet ab – um „auf Nummer sicher“ zu gehen.

3. Commission Bias – Verzerrung durch Überhandeln: Hier dominiert der Impuls, aktiv einzugreifen – auch ohne Notwendigkeit. Beispiel: Die KI markiert eine harmlose Schmelzveränderung – ohne Behandlungsempfehlung. Der Zahnarzt entscheidet sich zur Füllung – obwohl keine echte Indikation besteht.

4. Skill Degradation – Verlernen von Fähigkeiten durch passive Nutzung: Die Verwendung von KI-Diagnostik kann zu reduzierter Aufmerksamkeit führen, wenn der Behandler lernt, sich auf das System zu verlassen und zunehmend wenig genauer hinschaut. Der Zahnarzt erkennt irgendwann nur das, was die KI hervorhebt – weil die Fähigkeit, andere Dinge zu detektieren, bei ihm verloren gegangen ist.

Warum passiert uns das?

Es gibt verschiedene Gründe für einen Automatisierungs-Bias:

  • Kognitive Entlastung: 
    KI-Systeme versprechen Zeitgewinn und mentale Entlastung. Doch gerade unter Zeitdruck oder in Routinen steigt die Gefahr, dass die Systemausgabe unhinterfragt übernommen wird.

  • Wahrnehmung von Objektivität: 
    Maschinen gelten als neutral – ohne Emotionen, Vorurteile oder Interessen. Diese Vorstellung führt dazu, dass maschinelle Vorschläge als „objektiver“ eingeschätzt werden als das eigene Urteil.

  • Autoritätsillusion: 
    Bekannte Hersteller, Zertifizierungen oder Publikationen suggerieren Professionalität und Richtigkeit. So wird der Algorithmus oft zur scheinbar unanfechtbaren Instanz.


So wappnen wir uns

Es gibt eine Reihe von Strategien, die uns zur Verfügung stehen, um Automatisierungs-Bias zu mindern oder vermeiden:

  • Duale Prüfung (Double Reading): 
    Jede KI-Ausgabe sollte mit dem eigenen klinischen Urteil abgeglichen werden – unabhängig davon, wie plausibel sie erscheint. Einige KI-Systeme zwingen bei bestimmten Befunden den Untersucher zur Bestätigung oder Ablehnung.

  • Schulung und Sensibilisierung: 
    Zahnärztinnen und Zahnärzte sollten lernen, die Systemgrenzen zu erkennen. Fortbildungen müssen nicht nur die Technik, sondern auch kognitive Fallstricke vermitteln. Die Schulung von klinischem Personal (also auch ZFA) im Umgang mit KI wird im EU-ACT als zwingend notwendig vorgesehen.

  • Explainable AI (XAI): 
    KI-Systeme, die Entscheidungswege, Unsicherheiten und Alternativen offenlegen, helfen bei der kritischen Bewertung. Heatmaps, Score-Interpretationen und Transparenzmechanismen sind erste Schritte in diese Richtung. Bei Unsicherheiten könnte das KI-System den Nutzer befragen und auf die Unsicherheit aktiv hinweisen.

  • Fallback-Pläne und Redundanz: 
    Praxisprozesse dürfen nicht vollständig von KI abhängig sein. Es braucht klare Protokolle für Systemausfälle, Widersprüche oder Unsicherheiten.

  • Teamkommunikation: 
    Fallbesprechungen im Team helfen dabei, individuelle Verzerrungen zu erkennen. Eine kollegiale Rückmeldung kann eine wirksame Barriere gegen einen Bias bilden. Und die Integration von KI in Studium und Ausbildung kann eine kritische Auseinandersetzung mit dieser neuen Technologie in einem kommunikativen Umfeld fördern.


Ein Werkzeug, kein Orakel

KI bietet der Zahnmedizin enorme Chancen, aber sie bringt auch neue Herausforderungen mit sich. Der Automatisierungs-Bias ist nicht das Versagen der Maschine, sondern das Versäumnis des Menschen, kritisch zu bleiben. KI-Systeme sollten daher nicht als Autoritäten, sondern als Assistenzsysteme verstanden werden. Wer ihre Empfehlungen bewusst einordnet und mit klinischer Expertise verknüpft, kann ihre Vorteile sicher nutzen – zum Wohl der Patientinnen und Patienten.

130433-flexible-1900

Univ.-Prof. Dr. Falk Schwendicke

Direktor der Poliklinik für Zahnerhaltung, Parodontologie und digitale Zahnmedizin
LMU Klinikum
Goethestraße 70, 80336 München

Dr. Fabian Langenbach

Deutsche Gesellschaft für Implantologie
im Zahn-, Mund- und Kieferbereich e.V.
Chief Strategy Officer
Karlstr. 60, 80333 München

Prof. Dr. Tabea Flügge

Charité Universitätsmedizin Berlin
Klinik für Mund-, Kiefer- und Gesichts-
chirurgie, Campus Benjamin Franklin
Hindenburgdamm 30, 12203 Berlin

Melden Sie sich hier zum zm-Newsletter des Magazins an

Die aktuellen Nachrichten direkt in Ihren Posteingang

zm Heft-Newsletter


Sie interessieren sich für einen unserer anderen Newsletter?
Hier geht zu den Anmeldungen zm Online-Newsletter und zm starter-Newsletter.