Klage gegen OpenAI und Geldgeber Microsoft

Verarbeitet ChatGPT illegal Gesundheitsdaten?

mg
In den USA klagen nun 16 Privatpersonen gegen verschiedene Hersteller von Künstlicher Intelligenz (KI). Eine Anschuldigung lautet: Diebstahl persönlicher Informationen, darunter sind auch Gesundheitsdaten.

Um die Künstliche Intelligenz zu trainieren, seien Unmengen persönliche Daten ohne Benachrichtigung oder Einwilligung der Betroffenen gestohlen worden, heißt es in der 157-seitigen Klageschrift. Allein der ChatGPT-Hersteller OpenAI soll heimlich 300 Milliarden Wörter aus dem Internet zusammengeklaut haben – unter anderem aus Büchern, Artikeln und Webseiten, weshalb die Klage auch urheberrechtliche Fragestellungen aufwirft. Unter die vermeintlich gestohlenen Daten fallen aber auch massenweise personenbezogene Daten.

Diese Informationen könnten besonders sensible Daten wie Krankenakten oder Angaben über Minderjährige enthalten, führt die Klageschrift weiter aus, wobei es möglich sei, eine Vielzahl dieser Datenspuren unter eindeutigen ID-Profilen zu speichern. Es sei besorgniserregend, dass bereits erste Anbieter von Gesundheitsversorgungsleistungen mit der Integration von ChatGPT beginnen, um Wettbewerbsvorteile zu erzielen, während die Vertraulichkeit der verarbeiteten personenbezogenen Daten nicht sichergestellt sei.

Was ChatGPT & Co. einmal verarbeitet haben, ist auf ewig gespeichert

Die New Yorker Anwälte der Kanzlei Clarkson Law Firm kritisieren außerdem, dass die Arbeitsweise der selbstlernenden Systeme grundsätzlich dem Recht auf nachträgliche Löschung persönlicher Daten zuwiderläuft. Einmal von ChatGPT verarbeitete Daten seien auf ewig gespeichert, unabhängig davon, ob sie an der Ursprungsquelle gelöscht wurden oder nicht, betonen sie.

Die Klage spart nicht mit düsteren Prognosen: Produkte wie ChatGPT etwa garantierten, dass die Prävalenz und Potenz von Schadsoftware exponentiell zunehmen und beispiellose Cybersicherheitsrisiken auf globaler Ebene darstellen werden. Schließlich sei es heute schon möglich, mithilfe der KI eine gute Schadsoftware so zu optimieren, dass sie von gängigen Schutzprogrammen nicht mehr als solche erkannt werden kann.

Die Kläger rügen nicht nur die Arbeitsweise des KI-Bots ChatGPT, sondern auch die auf vergleichbaren Prinzipien fußende Datenverarbeitung von Produkten wie dem KI-Bildgenerator Dall-E, dem KI-Sprachgenerator Vall-E sowie der KI-Gesichtserkennung Clearview. Allein letztere hat nach Unternehmensangaben zum Trainieren der Technik bis 2022 rund 22 Milliarden Fotos verarbeitet, die von Plattformen wie Facebook und YouTube stammten.

Melden Sie sich hier zum zm Online-Newsletter an

Die aktuellen Nachrichten direkt in Ihren Posteingang

zm Online-Newsletter


Sie interessieren sich für einen unserer anderen Newsletter?
Hier geht zu den Anmeldungen zm starter-Newsletter und zm Heft-Newsletter.