KI in der Zahnarztpraxis – Teil 4

Die KI muss ihre Ergebnisse erklären können

Falk Schwendicke
,
Künstliche Intelligenz (KI) soll dem Kliniker eine qualifizierte Zweitmeinung zur Verfügung stellen. Doch auf der Grundlage welchen Wissens? Und kann die KI „erklären“, wie sie zu Entscheidungen gelangt? Fragen, die auch jeder (menschliche) Kollege beantworten müsste, bevor er als klinischer Partner ernst genommen wird. Im Fall der KI kommen die Begriffe „Generalisierbarkeit“ und „Erklärbarkeit“ ins Spiel.

Die Leistungsfähigkeit von KI-Modellen wird maßgeblich bestimmt durch deren Datengrundlage: Ein Modell, das nur an Daten aus einer Praxis oder Klinik trainiert wurde, wird nicht zwingend in anderen Kliniken oder Praxen funktionieren. Gleiches gilt für ein Modell, das nur mit Daten einer spezifischen Gruppe – beispielsweise Senioren, Männern oder Menschen mit gutem Gesundheitszustand – entwickelt wurde. Generalisierbarkeit heißt, dass KI-Modelle solche Einschränkungen überwinden und unter verschiedenen Bedingungen zuverlässig laufen.

Die Resultate müssen verallgemeinerbar sein

Zahnmedizinische KI-Anwendungen sollten demnach bei Menschen verschiedenen Alters und Geschlechts, aber auch Mundgesundheitszustands (etwa die Anzahl der Zähne, Karieserfahrung und Restaurationszustand) gleichbleibende Ergebnisse liefern. Bei der Röntgenbildanalyse sollte die KI zudem auf Bildern von Carestream so gut funktionieren wie auf Bildern von Dürr oder Morita. Nur wenn die Datengrundlage im Rahmen des Trainings divers genug war, kann das entwickelte KI-Modell auch auf unterschiedlichen Datenquellen zuverlässige Ergebnisse erzielen.

So konnten wir zeigen, dass KI-Modelle zur Detektion apikaler Läsionen auf Panoramaschichtbildern, die auf Röntgenbildern aus Deutschland trainiert wurden, nicht nur die typischen Charakteristika dieser Läsionen, sondern auch andere Korrelationen lernen – beispielsweise, dass apikale Läsionen oftmals in der Nähe von Wurzelkanalfüllungen auftreten. Wird nun eine solche in Deutschland trainierte KI-Software in Regionen der Welt ohne ausreichende Gesundheitsversorgung mit dementsprechend wenig durchgeführten Wurzelkanalbehandlungen eingesetzt, wird sie scheitern: Sie „vermisst“ die nach ihrem Training zu einer apikalen Läsion gehörige Wurzelkanalfüllung. Das KI-Modell dieser Software ist nicht generalisierbar – um zuverlässig zu funktionieren, muss es auch an den Daten der jeweiligen Regionen trainiert werden.

Generalisierbarkeit ist jedoch keineswegs nur ein Thema großer wirtschaftlicher oder kultureller Unterschiede, sondern kann auch in kleinem Rahmen mit unterschiedlichen Patientengruppen zwischen einzelnen Praxen Effekte erzeugen. Anwender sollten ihre KI-Software deshalb im Hinblick auf die Generalisierbarkeit kennen und möglicherweise in einer Pilotanwendung an ihren eigenen Patienten erproben.

Durch Logik werden die Ergebnisse ERklärbar 

Ein weiterer Aspekt ist die sogenannte Erklärbarkeit. KI-Modelle werden oft als „Black Box“-Modelle beschrieben, da nicht immer einfach zu durchdringen ist, auf welcher Grundlage die komplexen, durch die Maschine selbst entwickelten Modelle entscheiden. Gerade in der Medizin sollte allerdings sichergestellt werden, dass es eine Logik hinter diesen Entscheidungen gibt, die mit medizinischen Erwägungen zu erklären ist. KI-Nutzer sollten kritisch nach dieser Erklärbarkeit von KI fragen.

KI IN DER ZAHNARZTPRAXIS

Erste Anwendungen mit Künstlicher Intelligenz (KI) für die Zahnarztpraxis gibt es inzwischen, doch noch immer herrscht viel Unsicherheit darüber, was KI eigentlich ist und leisten kann. Was können Zahnärztinnen und Zahnärzte vom Einsatz einer KI im Alltag erwarten? Welchen Mehrwert kann ein solches Werkzeug bringen? In der Reihe „KI in der Zahnarztpraxis“ erörtern Experten Fragen zum Verständnis der KI.

Bei der Bildanalytik hieße dies beispielsweise, im Röntgenbild die Areale zu markieren, die für die KI entscheidungsrelevant sind – dann können Nutzer selbst nachprüfen, ob die aufgefundene Stelle erkrankt ist. Bei der Vorhersage von Zahnverlusten sollte deutlich werden, anhand welcher Parameter die KI die Vorhersage getroffen hat – so wäre beispielsweise ein ausgeprägter Knochenverlust über 70 Prozent ein Parameter, der mit medizinischem Wissen konsistent ist. Kann die Entscheidung der KI nicht erklärt werden, sollte deren Einsatz nur äußerst vorsichtig erfolgen. 

Fazit

Wer KI-Software in der Praxis einsetzen will, sollte vor dem Kauf gezielt nachfragen, in welchen Settings die Software trainiert wurde. Waren die Settings divers genug? Passt das gelernte Wissen der KI-Anwendung zu den Patienten und Anforderungen in meiner Praxis? Darüber hinaus ist es wichtig, dass Anwender nachvollziehen können, nach welchen Kriterien die KI ihre Entscheidungen fällt. Ohne dieses Wissen wird die neue digitale KI-Kollegin keinen Mehrwert bringen können. 

Univ.-Prof. Dr. Falk Schwendicke

Direktor der Abteilung für Orale
Diagnostik, Digitale Zahnheilkunde
und Versorgungsforschung,
CharitéCentrum 3 für Zahn-, Mund- und Kieferheilkunde, MVZ Charité
Zahnheilkunde Charité –
Universitätsmedizin Berlin
Aßmannshauser Str. 4–6, 14197 Berlin

Dr. rer. nat. Joachim Krois

Abteilung für Orale Diagnostik, Digitale Zahnheilkunde und Versorgungsforschung,
CharitéCentrum 3 für Zahn-, Mund- und Kieferheilkunde, Charité – Universitätsmedizin Berlin
Aßmannshauser Str. 4–6, 14197 Berlin

Melden Sie sich hier zum zm-Newsletter des Magazins an

Die aktuellen Nachrichten direkt in Ihren Posteingang

zm Heft-Newsletter


Sie interessieren sich für einen unserer anderen Newsletter?
Hier geht zu den Anmeldungen zm Online-Newsletter und zm starter-Newsletter.