Data gestolen uit Google Drive via AI-koppeling ChatGPT

Onderzoekers toonden hoe verborgen prompts in Google Docs ChatGPT kunnen misleiden om Drive-data te stelen, wat AI-integratierisico's blootlegt.

data-gestolen-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp

Nieuw aanvalsvector richt zich op AI-integraties

Beveiligingsonderzoekers toonden een kritieke kwetsbaarheid in ChatGPT tijdens de Black Hat-conferentie in Las Vegas. De exploit, AgentFlayer genaamd, stelt aanvallers in staat gevoelige gegevens uit gekoppelde Google Drive-accounts te stelen met behulp van vergiftigde documenten.

Hoe de zero-click-aanval werkt

De aanval verbergt prompts in Google Docs door witte tekst in lettergrootte 1 te gebruiken - onzichtbaar voor mensen maar leesbaar voor AI. Wanneer gebruikers ChatGPT vragen deze documenten samen te vatten, activeren de kwaadaardige instructies de AI om aangesloten drives te doorzoeken naar API-sleutels en credentials.

Onderzoekers Michael Bargury en Tamir Ishay Sharbat van Zenity toonden aan hoe gestolen data wordt uitgefilterd via schijnbaar onschuldige afbeeldingslinks. Cruciaal is dat slachtoffers alleen het document hoeven te hebben gedeeld - geen actieve interactie vereist.

Industriereactie en oplossingen

OpenAI bevestigde eerdere meldingen van de kwetsbaarheid en heeft tegenmaatregelen geïmplementeerd. Google benadrukte dat dit geen Drive-specifiek probleem is, maar wijst op bredere risico's in AI-data-integraties.

Het groeiende gevaar van prompt injection

Dit incident illustreert indirecte prompt injection-aanvallen waarbij externe content verborgen AI-instructies bevat. Het Open Worldwide Application Security Project rangschikte prompt injection recent als het #1 beveiligingsrisico voor LLM-toepassingen in zijn 2025-rapport.

Naarmate AI-systemen toegang krijgen tot bedrijfs- en persoonlijke gegevensbronnen, wordt bescherming tegen dergelijke verborgen aanvallen steeds crucialer. Beveiligingsexperts raden strikte invoervalidatie en contextbewust machtigingsbeheer aan bij het koppelen van AI aan gevoelige data.

Gerelateerd

google-ai-gezondheid-medische-fouten
Ai

Google stopt AI-gezondheidsoverzichten na gevaarlijke medische fouten

Google heeft AI Overviews van medische zoekopdrachten verwijderd na onderzoek dat gevaarlijke desinformatie...

ai-chatbots-69-nauwkeurig-google-studie
Ai

Google Studie: AI-chatbots Slechts 69% Nauwkeurig, Grote Gebreken

Google's FACTS Benchmark toont aan dat AI-chatbots slechts 69% nauwkeurig zijn, met multimodaal begrip onder 50%. De...

google-topman-waarschuwt-ai-vertrouwen
Ai

Google-topman waarschuwt: vertrouw AI niet blindelings

Google CEO Sundar Pichai waarschuwt tegen blind vertrouwen in AI, wijst op foutgevoeligheid en...

chatgpt-kwetsbaarheid-datalekken
Ai

ChatGPT-kwetsbaarheid liet datalekken via e-mail toe

Beveiligingsonderzoekers ontdekten ChatGPT-kwetsbaarheid waardoor verborgen e-mailcommando's AI konden manipuleren...

data-gestolen-google-drive-chatgpt
Ai

Data gestolen uit Google Drive via AI-koppeling ChatGPT

Onderzoekers toonden hoe verborgen prompts in Google Docs ChatGPT kunnen misleiden om Drive-data te stelen, wat...

ai-beveiliging-prompt-injection
Ai

Hoe Veilig Is Jouw AI-Model? Binnen de Prompt Injection Wapenwedloop

Prompt injection-aanvallen manipuleren AI-modellen door hun onvermogen om instructies van gebruikersinvoer te...