
Nieuw aanvalsvector richt zich op AI-integraties
Beveiligingsonderzoekers toonden een kritieke kwetsbaarheid in ChatGPT tijdens de Black Hat-conferentie in Las Vegas. De exploit, AgentFlayer genaamd, stelt aanvallers in staat gevoelige gegevens uit gekoppelde Google Drive-accounts te stelen met behulp van vergiftigde documenten.
Hoe de zero-click-aanval werkt
De aanval verbergt prompts in Google Docs door witte tekst in lettergrootte 1 te gebruiken - onzichtbaar voor mensen maar leesbaar voor AI. Wanneer gebruikers ChatGPT vragen deze documenten samen te vatten, activeren de kwaadaardige instructies de AI om aangesloten drives te doorzoeken naar API-sleutels en credentials.
Onderzoekers Michael Bargury en Tamir Ishay Sharbat van Zenity toonden aan hoe gestolen data wordt uitgefilterd via schijnbaar onschuldige afbeeldingslinks. Cruciaal is dat slachtoffers alleen het document hoeven te hebben gedeeld - geen actieve interactie vereist.
Industriereactie en oplossingen
OpenAI bevestigde eerdere meldingen van de kwetsbaarheid en heeft tegenmaatregelen geïmplementeerd. Google benadrukte dat dit geen Drive-specifiek probleem is, maar wijst op bredere risico's in AI-data-integraties.
Het groeiende gevaar van prompt injection
Dit incident illustreert indirecte prompt injection-aanvallen waarbij externe content verborgen AI-instructies bevat. Het Open Worldwide Application Security Project rangschikte prompt injection recent als het #1 beveiligingsrisico voor LLM-toepassingen in zijn 2025-rapport.
Naarmate AI-systemen toegang krijgen tot bedrijfs- en persoonlijke gegevensbronnen, wordt bescherming tegen dergelijke verborgen aanvallen steeds crucialer. Beveiligingsexperts raden strikte invoervalidatie en contextbewust machtigingsbeheer aan bij het koppelen van AI aan gevoelige data.