Sie wurden erfolgreich abgemeldet!

Neue Cybergefahren durch KI-Einsatz

KI-Agenten in E-Mails schaffen neue Angriffsflächen

br
Gesellschaft
Wer seine eMails mit KI-Helfern zusammenfassen lässt, kann leicht Opfer neuartiger Prompt-Injection-Angriffe werden. Darauf weist die IT-Cybersicherheitsfirma Proofpoint in einem Whitepaper zu KI-Gefahren hin.

In hohem Tempo dringt Künstliche Intelligenz in die Arbeitswelt ein. Die intelligenten Helfer kommen über Softwareupdates, Assistenten oder spezialisierte KI-Anwendungen auf den Computerarbeitsplatz. Es reicht oft nur ein Klick und ein KI-Assistent beginnt zu arbeiten. Der Unternehmensberatung McKinsey zufolge nutzen oder testen bereits 62 Prozent der Unternehmen KI-Assistenten in Geschäftsprozessen.

Der Einsatz von KI vergrößert jedoch auch die Angriffsflächen und wird zur Herausforderung für den Schutz der eigenen Daten. Darauf macht die IT-Cybersicherheitsfirma Proofpoint in einem jüngst veröffentlichten Weißbuch aufmerksam. Darin verweisen die Autoren auf einen bereits im Juli 2025 veröffentlichtes Szenario, bei dem Nutzer durch eine sogenannte „indirekte Prompt-Injection“ geschädigt werden können. Angreifer können Mails mit versteckten schädlichen Anweisungen versenden. Hat der Empfänger den Google-KI-Assistenten Gemini beauftragt, die Mail zusammenzufassen, liest dieser die Anweisung und führt sie aus – so kann unbemerkt Schadcode auf den Computer gelangen.

Die Entwicklung geht hin zum „agentenbasierten Arbeitsplatz“

Mit dem Einsatz von KI entwickle sich der heutige digitale Arbeitsplatz zunehmend in einen „agentenbasierten Arbeitsplatz“, schreibt Proofpoint im Weißbuch. Dadurch, dass die KI eigenständig Aufgaben wahrnimmt und dafür auch die entsprechenden „Kompetenzen“ wie Lese- und Schreibrechte bekommt, tritt sie als eigenständiger Akteur neben den menschlichen Nutzer. „Am agentenbasierten Arbeitsplatz werden KI-Agenten zunehmend in Arbeitsabläufe integriert.

Sie automatisieren Aufgaben, analysieren Informationen und arbeiten mit menschlichen Anwendern sowie untereinander zusammen. Dabei sind Agenten so konzipiert, dass sie sich wie Menschen verhalten: Sie klicken, agieren und geben Daten weiter. Das bedeutet, dass sie auch getäuscht, irregeführt oder kompromittiert werden können. Sowohl Menschen, die KI-Assistenten nutzen, als auch KI-Agenten sind ähnlichen Risiken ausgesetzt, von Social-Engineering- und Prompt-Engineering-Angriffen bis hin zur unbefugten Weitergabe vertraulicher Daten oder Anmeldedaten“, schreiben die Proofprint-Autoren.

Wettrüsten der KI-Agenten?

Mit dieser Entwicklung werden schließlich die Bedrohungsszenarien so komplex, dass schließlich für die Abwehr von Bedrohungen ebenfalls KI-Agenten benötigt werden, es müssten „die Verteidiger selbst KI-Agenten einsetzen, um die wachsende Arbeitslast zu bewältigen. Durch die Nutzung von Echtzeit-Bedrohungsdaten können in Ihre Cybersi­cherheitsplattform integrierte Sicherheitsagenten als Verstärkung für Sicherheitsteams fungieren“, so Proofprint – das Unternehmen bietet im Weißbuch auch eigene Sicherheitslösungen zur Nutzung an.

Für den niedergelassenen Praxisinhaber bleibt die Frage nach dem Kosten-Nutzen-Verhältnis beim Einsatz von KI in der Praxis offen. Auf jeden Fall sollten die etwaig anfallenden Kosten für die Absicherung und „Haftpflichtversicherung“ der Aktivitäten des neuen KI-Mitarbeiters im Blick behalten werden.

Hier geht es zum Weißbuch (deutsch).

Melden Sie sich hier zum zm Online-Newsletter an

Die aktuellen Nachrichten direkt in Ihren Posteingang

zm Online-Newsletter


Sie interessieren sich für einen unserer anderen Newsletter?
Hier geht zu den Anmeldungen zm starter-Newsletter und zm Heft-Newsletter.