EU-Gesetz zum Umgang mit Künstlicher Intelligenz

Was Arbeitgeber über den AI-Act wissen müssen

LL
Praxis
Die EU will mit dem AI-Act einen einheitlichen Rechtsrahmen für den Einsatz von KI-Systemen und damit mehr Sicherheit, Transparenz und Fairness schaffen. Das müssen Arbeitgeber über die Gesetze wissen.

Ab August 2025 greifen zum Teil hohe Geldstrafen beim Verstößen gegen den AI-Act, betont der Fachanwalt für Arbeitsrecht Volker Görzel, Leiter des Fachausschusses „Betriebsverfassungsrecht und Mitbestimmung“ des Verband deutscher ArbeitsrechtsAnwälte e. V. (VDAA ).

Bereits seit dem 2. Februar 2025 sind KI-Systeme mit „unannehmbarem Risiko“ verboten. Seit dem 2. August müssen Unternehmen, die gegen bestehende Pflichten verstoßen, mit Geldbußen von bis zu 35 Millionen Euro oder 7 Prozent des Jahresumsatzes rechnen.

Ebenfalls bis August mussten alle EU-Mitgliedsstaaten nationale KI-Aufsichtsbehörden benennen, die dann kontrollieren, ob die eingesetzten Systeme den Vorgaben entsprechen, berichtet Görzel. In Deutschland soll die Bundesnetzagentur einen Großteil dieser Aufgaben übernehmen.

Pflichten für Anbieter von ChatGPT & Co.

Der AI-Act betrifft auch General-Purpose-AI-Modelle wie Large Language Models (Große Sprachmodelle). Anbieter müssen Urheberrechte beachten, technische Dokumentationen erstellen und auch offenlegen, welche Daten für das Training genutzt wurden. Für bereits bestehende Modelle gilt eine Übergangsfrist bis August 2027.

Der AI-Act der EU unterscheidet zwischen drei Risikostufen:

  • Unannehmbares Risiko – verboten (zum Beispiel Soziales Scoring, Echtzeit-Gesichtserkennung)

  • Hohes Risiko – strenge Prüf- und Dokumentationspflichten (zum Beispiel KI im Recruiting oder in Prüfungsverfahren)

  • Minimales Risiko – keine Pflichtauflagen, aber freiwillige Verhaltenskodizes möglich

KI im Hochrisiko-Bereich ist besonders im Fokus

Software, die Bewerbungen filtert, Mitarbeiter bewertet oder Lernleistungen analysiert, wird oft als Hochrisiko-System eingestuft. Arbeitgeber müssen hier ein Risikomanagementsystem einführen und die Systeme regelmäßig prüfen lassen, so der Anwalt.

Bilder, Texte, Videos oder Audios, die durch KI erzeugt oder verändert wurden, müssen demnach klar als KI-generiert gekennzeichnet sein. Deepfakes oder bearbeitete Medien dürfen nicht mehr ohne Hinweis verbreitet werden.

Weitere Regeln treten 2026 und 2027 in Kraft. Unternehmen sollten daher jetzt prüfen, welche ihrer eingesetzten Systeme unter den AI-Act fallen und ihre Mitarbeitenden gezielt schulen, sagt Görzel. Wer KI-Systeme im Recruiting oder in der Personalverwaltung nutzt, sollte frühzeitig rechtliche Beratung einholen. Verstöße gegen den AI-Act könnten nicht nur teuer, sondern auch rufschädigend sein.

Melden Sie sich hier zum zm Online-Newsletter an

Die aktuellen Nachrichten direkt in Ihren Posteingang

zm Online-Newsletter


Sie interessieren sich für einen unserer anderen Newsletter?
Hier geht zu den Anmeldungen zm starter-Newsletter und zm Heft-Newsletter.