AI-Schwachstelle offenbart Google-Drive-Daten via ChatGPT

Forscher zeigten, wie versteckte Prompts in Google Docs ChatGPT zum Datenklau nutzen können und Risiken von AI-Integrationen aufdecken.

ai-schwachstelle-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp

Neuer Angriffsvektor zielt auf AI-Integrationen

Sicherheitsforscher demonstrierten eine kritische Schwachstelle in ChatGPT auf der Black-Hat-Konferenz in Las Vegas. Der als AgentFlayer bezeichnete Exploit ermöglicht Angreifern den Diebstahl sensibler Daten aus verbundenen Google-Drive-Konten mittels präparierter Dokumente.

Funktionsweise des Zero-Click-Angriffs

Beim Angriff werden versteckte Prompts in Google Docs mittels weißer Schrift in Größe 1 eingebettet - für Menschen unsichtbar, aber für AI lesbar. Wenn Benutzer ChatGPT bitten, diese Dokumente zusammenzufassen, lösen die bösartigen Anweisungen die Durchsuchung verbundener Laufwerke nach API-Schlüsseln aus.

Forscher Michael Bargury und Tamir Ishay Sharbat von Zenity zeigten, wie gestohlene Daten über scheinbar harmlose Bildlinks exfiltriert werden. Entscheidend ist, dass Opfer lediglich das Dokument freigegeben haben müssen - keine aktive Interaktion erforderlich.

Industriereaktion und Gegenmaßnahmen

OpenAI bestätigte frühere Meldungen der Schwachstelle und hat Gegenmaßnahmen implementiert. Google betonte, dass es sich nicht um ein Drive-spezifisches Problem handelt, sondern um breitere Risiken bei AI-Datenintegrationen.

Die wachsende Bedrohung durch Prompt Injection

Dieser Vorfall veranschaulicht indirekte Prompt-Injection-Angriffe, bei denen externe Inhalte versteckte AI-Anweisungen enthalten. Das Open Worldwide Application Security Project stufte Prompt Injection kürzlich als das größte Sicherheitsrisiko für LLM-Anwendungen in seinem 2025-Bericht ein.

Da AI-Systeme zunehmend Zugriff auf geschäftliche und private Daten erhalten, wird der Schutz vor solchen verdeckten Angriffen entscheidend. Sicherheitsexperten empfehlen strenge Eingabevalidierung und kontextbewusste Berechtigungskontrollen bei der Verbindung von AI mit sensiblen Datenquellen.

Verwandt

google-ki-gesundheits-fehler
Ai

Google stoppt KI-Gesundheitsübersichten nach gefährlichen medizinischen Fehlern

Google hat seine KI-Übersichtsfunktion (AI Overviews) von medizinischen Suchanfragen entfernt, nachdem eine...

google-ki-chatbots-69-genau-studie
Ai

Google Studie: KI-Chatbots nur 69% genau, große Mängel

Googles FACTS-Benchmark zeigt, dass KI-Chatbots nur zu 69% genau sind, wobei das multimodale Verständnis unter 50%...

google-chef-warnt-ki-vertrauen
Ai

Google-Chef warnt: KI nicht blind vertrauen

Google-CEO Sundar Pichai warnt vor blindem Vertrauen in KI, weist auf Fehleranfälligkeit und...

chatgpt-sicherheitslucke-datenlecks
Ai

ChatGPT-Sicherheitslücke ermöglichte Datenlecks per E-Mail

Sicherheitsforscher entdeckten ChatGPT-Schwachstelle, die versteckte E-Mail-Befehle zur Manipulation der KI und zum...

ai-schwachstelle-google-drive-chatgpt
Ai

AI-Schwachstelle offenbart Google-Drive-Daten via ChatGPT

Forscher zeigten, wie versteckte Prompts in Google Docs ChatGPT zum Datenklau nutzen können und Risiken von...

ki-sicherheit-prompt-injection
Ai

Wie Sicher Ist Ihr KI-Modell? Im Rüstungswettlauf der Prompt-Injection-Angriffe

Prompt-Injection-Angriffe manipulieren KI-Modelle, indem sie deren Unfähigkeit ausnutzen, Anweisungen von...