Diese KI spricht wie ein Arzt
Die Einschätzung der Aggressivität von Prostatakrebs erfolgt bislang vor allem durch das sogenannte Gleason-Grading – eine Analyse des Krebsgewebes im Pathologie-Labor, die mit hoher Subjektivität verbunden ist. Ein internationales Forschungsgruppe unter Leitung des Deutschen Krebsforschungszentrums (DKFZ) hat nun ein neuartiges, erklärbares KI-Modell entwickelt, das die Diagnostik von Prostatakarzinomen transparenter und weniger fehleranfällig machen soll.
„Bisherige KI-Modelle können zwar Vorhersagen zur Gleason-Bewertung treffen, liefern aber oft keine verständliche Begründung, was die klinische Akzeptanz einschränkt“, erklärt PD Dr. Titus Brinker, Leiter der Abteilung Digitale Prävention, Diagnostik und Therapieberatung am DKFZ in Heidelberg. Das neu entwickelte System verzichtet auf nachträgliche Erklärungsansätze und basiert direkt auf Beschreibungen der Pathologie. Dazu wurden 1.015 Gewebeproben von internationalen Expertinnen und Experten mit detaillierten Mustererklärungen versehen („annotiert“).
Die Studie, an der 54 Pathologinnen und Pathologen aus zehn Ländern (unter anderem aus Deutschland, den USA, Kanada und der Schweiz) beteiligt waren, stellt eine der umfangreichsten Sammlungen an erklärungsbasierten Gewebeannotationen vor. Sie brachten dabei im Median 15 Jahre klinische Erfahrung in das Projekt ein. Als Ergebnis präsentiert das Heidelberger Team mit „GleasonXAI“ eine KI, die interpretierbare Entscheidungen bietet – ähnlich wie ein Pathologe sie liefern würde.
Durch die Nutzung sogenannter „Soft Labels“, die die Unsicherheiten zwischen einzelnen Pathologen-Bewertungen abbilden, konnte die KI trotz hoher Variabilität reproduzierbare Ergebnisse erzielen. Im direkten Vergleich mit konventionellen Modellen erreichte GleasonXAI eine gleichwertige oder bessere Genauigkeit – bei gleichzeitig erhöhter Transparenz.
KI spricht Pathologen-Sprache
„Wir haben erstmals ein KI-System entwickelt, das die charakteristischen Gewebemerkmale der Gleason-Muster erkennt und sich ähnlich wie ein Pathologe erklärt“, sagt Gesa Mittmann, Koautorin der Studie. „Das soll Vertrauen und Akzeptanz in die KI im klinischen Alltag steigern.“
Die Ergebnisse zeigen, dass erklärbare KI ohne Leistungseinbußen praxisnah umgesetzt werden kann. Dies könnte den Einsatz in der Routinepathologie beschleunigen – hochrelevant gerade in Zeiten steigender Krebszahlen und sinkender Facharztkapazitäten.
Darüber hinaus unterstützt das Modell auch die Ausbildung: „Die erklärbaren Segmentierungen können besonders Nachwuchs-Pathologinnen und -Pathologen helfen, typische Muster zu verstehen und schneller sichere Diagnosen zu stellen“, betont Brinker.
G. Mittmann, S. Laiouar-Pedari, H. A. Mehrtens et al. Pathologist-like explainable AI for interpretable Gleason grading in prostate cancer. Nature Communications 2025, DOI: https://doi.org/10.1038/s41467-025-64712-4, Open Access.