AI-Schwachstelle offenbart Google-Drive-Daten via ChatGPT

Forscher zeigten, wie versteckte Prompts in Google Docs ChatGPT zum Datenklau nutzen können und Risiken von AI-Integrationen aufdecken.

ai-schwachstelle-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Neuer Angriffsvektor zielt auf AI-Integrationen

Sicherheitsforscher demonstrierten eine kritische Schwachstelle in ChatGPT auf der Black-Hat-Konferenz in Las Vegas. Der als AgentFlayer bezeichnete Exploit ermöglicht Angreifern den Diebstahl sensibler Daten aus verbundenen Google-Drive-Konten mittels präparierter Dokumente.

Funktionsweise des Zero-Click-Angriffs

Beim Angriff werden versteckte Prompts in Google Docs mittels weißer Schrift in Größe 1 eingebettet - für Menschen unsichtbar, aber für AI lesbar. Wenn Benutzer ChatGPT bitten, diese Dokumente zusammenzufassen, lösen die bösartigen Anweisungen die Durchsuchung verbundener Laufwerke nach API-Schlüsseln aus.

Forscher Michael Bargury und Tamir Ishay Sharbat von Zenity zeigten, wie gestohlene Daten über scheinbar harmlose Bildlinks exfiltriert werden. Entscheidend ist, dass Opfer lediglich das Dokument freigegeben haben müssen - keine aktive Interaktion erforderlich.

Industriereaktion und Gegenmaßnahmen

OpenAI bestätigte frühere Meldungen der Schwachstelle und hat Gegenmaßnahmen implementiert. Google betonte, dass es sich nicht um ein Drive-spezifisches Problem handelt, sondern um breitere Risiken bei AI-Datenintegrationen.

Die wachsende Bedrohung durch Prompt Injection

Dieser Vorfall veranschaulicht indirekte Prompt-Injection-Angriffe, bei denen externe Inhalte versteckte AI-Anweisungen enthalten. Das Open Worldwide Application Security Project stufte Prompt Injection kürzlich als das größte Sicherheitsrisiko für LLM-Anwendungen in seinem 2025-Bericht ein.

Da AI-Systeme zunehmend Zugriff auf geschäftliche und private Daten erhalten, wird der Schutz vor solchen verdeckten Angriffen entscheidend. Sicherheitsexperten empfehlen strenge Eingabevalidierung und kontextbewusste Berechtigungskontrollen bei der Verbindung von AI mit sensiblen Datenquellen.

Verwandt

google-ki-chatbots-69-genau-studie
Ai

Google Studie: KI-Chatbots nur 69% genau, große Mängel

Googles FACTS-Benchmark zeigt, dass KI-Chatbots nur zu 69% genau sind, wobei das multimodale Verständnis unter 50%...

google-chef-warnt-ki-vertrauen
Ai

Google-Chef warnt: KI nicht blind vertrauen

Google-CEO Sundar Pichai warnt vor blindem Vertrauen in KI, weist auf Fehleranfälligkeit und...

chatgpt-sicherheitslucke-datenlecks
Ai

ChatGPT-Sicherheitslücke ermöglichte Datenlecks per E-Mail

Sicherheitsforscher entdeckten ChatGPT-Schwachstelle, die versteckte E-Mail-Befehle zur Manipulation der KI und zum...

ki-sicherheit-prompt-injection
Ai

Wie Sicher Ist Ihr KI-Modell? Im Rüstungswettlauf der Prompt-Injection-Angriffe

Prompt-Injection-Angriffe manipulieren KI-Modelle, indem sie deren Unfähigkeit ausnutzen, Anweisungen von...

ki-plattform-suchmaschine-europa
Ai

Niederländische KI-Plattform mit Suchmaschine ist Europas Antwort auf OpenAI

Das niederländische Unternehmen euqai hat eine KI-Plattform und Suchmaschine als europäische Alternative zu OpenAI...

halbleiter-exportkontrollen-dezember-2024
Ai

Halbleiterkrieg: Dezember-Exportkontrollen 2024 und Tech-Grenzen

Die Halbleiter-Exportkontrollen vom Dezember 2024 sind die umfassendsten US-Beschränkungen für Chinas KI-Fähigkeiten...