
Neuer Angriffsvektor zielt auf AI-Integrationen
Sicherheitsforscher demonstrierten eine kritische Schwachstelle in ChatGPT auf der Black-Hat-Konferenz in Las Vegas. Der als AgentFlayer bezeichnete Exploit ermöglicht Angreifern den Diebstahl sensibler Daten aus verbundenen Google-Drive-Konten mittels präparierter Dokumente.
Funktionsweise des Zero-Click-Angriffs
Beim Angriff werden versteckte Prompts in Google Docs mittels weißer Schrift in Größe 1 eingebettet - für Menschen unsichtbar, aber für AI lesbar. Wenn Benutzer ChatGPT bitten, diese Dokumente zusammenzufassen, lösen die bösartigen Anweisungen die Durchsuchung verbundener Laufwerke nach API-Schlüsseln aus.
Forscher Michael Bargury und Tamir Ishay Sharbat von Zenity zeigten, wie gestohlene Daten über scheinbar harmlose Bildlinks exfiltriert werden. Entscheidend ist, dass Opfer lediglich das Dokument freigegeben haben müssen - keine aktive Interaktion erforderlich.
Industriereaktion und Gegenmaßnahmen
OpenAI bestätigte frühere Meldungen der Schwachstelle und hat Gegenmaßnahmen implementiert. Google betonte, dass es sich nicht um ein Drive-spezifisches Problem handelt, sondern um breitere Risiken bei AI-Datenintegrationen.
Die wachsende Bedrohung durch Prompt Injection
Dieser Vorfall veranschaulicht indirekte Prompt-Injection-Angriffe, bei denen externe Inhalte versteckte AI-Anweisungen enthalten. Das Open Worldwide Application Security Project stufte Prompt Injection kürzlich als das größte Sicherheitsrisiko für LLM-Anwendungen in seinem 2025-Bericht ein.
Da AI-Systeme zunehmend Zugriff auf geschäftliche und private Daten erhalten, wird der Schutz vor solchen verdeckten Angriffen entscheidend. Sicherheitsexperten empfehlen strenge Eingabevalidierung und kontextbewusste Berechtigungskontrollen bei der Verbindung von AI mit sensiblen Datenquellen.