USA

Krankenkassen-Algorithmus benachteiligt schwarze Patienten

Ein von US-Krankenversicherern eingesetzter Algorithmus benachteiligt schwarze Patienten, zeigt eine Studie. Die Software wird zur Beurteilung von 200 Millionen Menschen genutzt – und ließe sich leicht korrigieren.

Die Computer- und Gesundheitswissenschaftler beklagen nicht generell den Einsatz einer Vorhersage-Software, sondern die Auswahl der Daten, die zum Training der Algorithmen herangezogen werden. AdobeStock_ JEGAS RA

Von der Vorhersage, welcher Kriminelle zum Wiederholungstäter wird, bis hin zu der Frage, wer am besten für einen Job infrage kommt, treffen heute in den USA vielfach Computeralgorithmen anstelle von Menschen die Entscheidung. Dabei wird immer häufiger festgestellt, dass viele dieser Algorithmen dieselben rassistischen, sozioökonomischen oder geschlechtsspezifischen Vorurteile reproduzieren, die sie eigentlich überwinden sollen, berichtet die University of California, Berkeley.

Die Wissenschaftler aus Berkeley haben gemeinsam mit Kollegen von der University of Chicago und des in Boston ansässigen, gemeinnützigen Krankenhaus- und Ärztenetzwerks "Partners HealthCare" herausgefunden, dass auch eine Software der US-Gesundheitsbranche, die den Zugang von Millionen von Amerikanern zu Gesundheitsleistungen steuert, einen rassistisches Bias hat.

Weiße Patienten dürfen öfter an Gesundheitsprogrammen teilnehmen als kränkere schwarze

Dabei kommt die am 25. Oktober in der Fachzeitschrift Science veröffentlichte Studie zu dem Schluss, dass der untersuchte Algorithmus relativ gesünderen Weißen routinemäßig eher die Teilnahme an Programmen für Hochrisiko-Patienten gewährte als ungesünderen Schwarzen. Korrigert man diese Verzerrung, würde die Anzahl der automatisch zu diesen Programmen zugelassenen schwarzen Patienten von 17,7 Prozent auf 46,5 Prozent steigen, prognostizieren die Autoren.

Der Bias entsteht, weil die Algorithmen die Kosten des Gesundheitswesens zur Ermittlung des relativen Patientenrisikos heranziehen, erklärt Ziad Obermeyer, stellvertretender Professor für Gesundheitspolitik und -management in Berkeley und Hauptautor der Studie. "Und aufgrund der strukturellen Ungleichheiten in unserem Gesundheitssystem verursachen Schwarze bei einem bestimmten Gesundheitszustand niedrigere Kosten als Weiße."

Berechnet nun der Algorithmus das individuelle Patientenrisiko auf Grundlage der in der Vergangenheit entstandenen Kosten, ergibt sich bei gleich kranken Patienten eine geringe Risikobewertung für Schwarze. Das bedeutet auch, dass schwarze Patienten bei der Verwendung des fehlerbehafteten Algorithmus in der Realität kränker sein müssen als weiße, um dieselbe Risikobewertung zu erhalten.

Algorithmen an sich sind per se weder gut noch schlecht

"Algorithmen an sich sind weder gut noch schlecht", betont Sendhil Mullainathan, Professor für Computer- und Verhaltensforschung an der Universität von Chicago. "Es geht nur darum, darauf zu achten, wie sie gebaut sind. In diesem Fall ist das Problem in hohem Maße behebbar – und mindestens ein Hersteller scheint an einer Lösung zu arbeiten."

Die Autoren wünschen sich für die Zukunft Routine-Überprüfungen in den Arbeitsabläufen von Algorithmus-Entwicklern. Das Aufdecken algorithmischer Verzerrungen – sei es in der Strafjustiz, bei Einstellungsentscheidungen oder im Gesundheitswesen – werde aktuell jedoch häufig dadurch erschwert, dass viele der verwendeten Vorhersage-Algorithmen von privaten Unternehmen entwickelt wurden, die den Forschern keinen Einblick in die Entscheidungsstrukturen ihrer Software gewähren.

Um das Verbesserungspotenzial darzustellen, führten Mullainathan und Obermeyer einen Test mit einem Universitätskrankenhaus durch, das einen risikobasierten Algorithmus zu Patientenselektion verwendet. Für 43.539 weiße und 6.079 schwarze Patienten, die in das Krankenhaus eingewiesen wurden, erhielten die Forscher den vom Algorithmus vorhergesagten Risiko-Score und verglichen ihn mit direkteren Messungen des Gesundheitszustands eines Patienten, einschließlich der Anzahl chronischer Krankheiten und anderer Biomarker. Sie stellten fest, dass Schwarze bei einer bestimmten Risikobewertung einen deutlich schlechteren Gesundheitszustand aufwiesen als weiße Patienten.

Aber es gibt Raum für Hoffnung, meint Obermeyer. Ein verändertes Training des Algorithmus zur Ermittlung des Risikos verringerte die rassistische Tendenz erheblich – nämlich dann, wenn seine Vorhersage auf der Grundlage messbarer Variablen zum Gesundheitszustand basiert.

Versicherungsschutz in den USA

Das amerikanische Gesundheitssystem ist eine Mischung aus privater und öffentlicher Vorsorge. Es gibt mehr als 1.000 private Krankenversicherungen, die den überwiegenden Teil der 327 Millionen Amerikaner versichern. Die Versicherung ist bei Angestellten meist an den Arbeitgeber gebunden während Freiberufler private Versicherer über einen staatlich regulierten Marketplace finden. Insgesamt sind etwa 60 Prozent der Amerikaner privat versichert. Staatlich versichert sind nur sozial Schwache (Medicaid), Rentner ab 65 Jahre und Behinderte (Medicare) oder Soldaten und ihre Angehörigen (Tricare & Veterans Administration).

Ziad Obermeyer et al. "Dissecting racial bias in an algorithm used to manage the health of populations", Science 25 Oktober 2019: Vol. 366, Issue 6464, pp. 447-453, DOI: 10.1126/science.aax2342

21662162161641216164221616432151052 2164013 2161646
preload image 1preload image 2preload image 3preload image 4preload image 5preload image 6preload image 7preload image 8preload image 9preload image 10preload image 11preload image 12preload image 13preload image 14preload image 15preload image 16preload image 17preload image 18preload image 19preload image 20preload image 21preload image 22preload image 23preload image 24preload image 25preload image 26preload image 27preload image 28preload image 29preload image 30preload image 31preload image 32preload image 33preload image 34preload image 35preload image 36preload image 37preload image 38preload image 39preload image 40preload image 41preload image 42preload image 43preload image 44preload image 45preload image 46preload image 47preload image 48preload image 49preload image 50preload image 51preload image 52preload image 53preload image 54preload image 55preload image 56preload image 57preload image 58preload image 59preload image 60preload image 61preload image 62preload Themeimage 0preload Themeimage 1preload Themeimage 2preload Themeimage 3preload Themeimage 4preload Themeimage 5preload Themeimage 6preload Themeimage 7preload Themeimage 8preload Themeimage 9preload Themeimage 10preload Themeimage 11preload Themeimage 12preload Themeimage 13preload Themeimage 14preload Themeimage 15preload Themeimage 16preload Themeimage 17preload Themeimage 18preload Themeimage 19preload Themeimage 20preload Themeimage 21preload Themeimage 22preload Themeimage 23preload Themeimage 24preload Themeimage 25preload Themeimage 26preload Themeimage 27preload Themeimage 28
Bitte bestätigen Sie
Nein
Ja
Information
Ok
loginform
Kommentarvorschau
Kommentarvorschau schliessen
Antwort abbrechen
Ihr Kommentar ist eine Antwort auf den folgenden Kommentar

Keine Kommentare