ChatGPT-kwetsbaarheid liet datalekken via e-mail toe

Beveiligingsonderzoekers ontdekten ChatGPT-kwetsbaarheid waardoor verborgen e-mailcommando's AI konden manipuleren en gevoelige data uit verbonden diensten zoals Gmail konden lekken.

chatgpt-kwetsbaarheid-datalekken
Facebook X LinkedIn Bluesky WhatsApp

AI-beveiligingslek: ChatGPT gemanipuleerd via verborgen e-mailcommando's

Beveiligingsonderzoekers hebben een kritieke kwetsbaarheid in OpenAI's ChatGPT ontdekt die aanvallers in staat stelde de AI-chatbot te manipuleren via ogenschijnlijk onschuldige e-mails, wat kon leiden tot datalekken van gevoelige gegevens uit verbonden diensten zoals Gmail.

De ShadowLeak-aanvalsmethode

Onderzoekers van cybersecuritybedrijf Radware doopten deze geavanceerde aanval "ShadowLeak". De kwetsbaarheid, die inmiddels door OpenAI is verholpen, maakte gebruik van verborgen commando's in de HTML-code van e-mails die onzichtbaar waren voor menselijke ontvangers maar wel uitgevoerd konden worden door ChatGPT.

Wanneer gebruikers ChatGPT verbonden met hun Gmail-accounts en de AI opdroegen hun e-mails te analyseren, werden de verborgen prompts automatisch geactiveerd. "Dit vertegenwoordigt een nieuw front in AI-beveiligingsbedreigingen waar het aanvalsoppervlak verder reikt dan traditionele endpoints," legde een Radware-woordvoerder uit.

Hoe de exploit werkte

De aanvalsketen begon met cybercriminelen die speciaal vervaardigde e-mails naar potentiële slachtoffers stuurden. Deze e-mails bevatten kwaadaardige HTML-code die onzichtbaar was voor gebruikers maar detecteerbaar door ChatGPT bij het verwerken van e-mailinhoud. Eenmaal geactiveerd, konden de verborgen commando's ChatGPT opdragen gevoelige informatie uit het Gmail-account van het slachtoffer te extraheren en naar externe servers te sturen.

Wat deze kwetsbaarheid bijzonder gevaarlijk maakte, was het cloud-gebaseerde karakter. In tegenstelling tot traditionele aanvallen die gebruikersapparaten targeten, opereerde ShadowLeak volledig binnen de cloudomgeving van ChatGPT, waardoor conventionele beveiligingsmaatregelen werden omzeild.

Bredere implicaties voor AI-beveiliging

Hoewel de demonstratie zich richtte op Gmail, bevestigden onderzoekers dat soortgelijke kwetsbaarheden andere diensten konden treffen die zijn geïntegreerd met ChatGPT's Deep Research Agent, waaronder Outlook, Dropbox, Google Drive en SharePoint. De ontdekking benadrukt de groeiende beveiligingsuitdagingen naarmate AI-systemen dieper geïntegreerd raken met persoonlijke en zakelijke gegevensbronnen.

OpenAI reageerde prompt op de onthulling en implementeerde fixes die dergelijke manipulatiepogingen voorkomen. Het incident dient echter als een duidelijke herinnering aan het evoluerende dreigingslandschap in het tijdperk van kunstmatige intelligentie.

Gerelateerd

gartner-ai-marktleiders-2025
Ai

Gartner wijst AI-marktleiders aan in 2025 vendor race

Gartner's 2025-analyse wijst Google, Microsoft, OpenAI en Palo Alto Networks aan als leiders in 30...

ai-chatbots-69-nauwkeurig-google-studie
Ai

Google Studie: AI-chatbots Slechts 69% Nauwkeurig, Grote Gebreken

Google's FACTS Benchmark toont aan dat AI-chatbots slechts 69% nauwkeurig zijn, met multimodaal begrip onder 50%. De...

microsoft-phishing-ai-bedrijfsterminologie
Ai

Microsoft stopt phishingcampagne met AI-verborgen bedrijfsterminologie

Microsoft detecteerde een phishingcampagne met AI-gegenereerde code verborgen in bedrijfsterminologie. Defender for...

chatgpt-kwetsbaarheid-datalekken
Ai

ChatGPT-kwetsbaarheid liet datalekken via e-mail toe

Beveiligingsonderzoekers ontdekten ChatGPT-kwetsbaarheid waardoor verborgen e-mailcommando's AI konden manipuleren...

data-gestolen-google-drive-chatgpt
Ai

Data gestolen uit Google Drive via AI-koppeling ChatGPT

Onderzoekers toonden hoe verborgen prompts in Google Docs ChatGPT kunnen misleiden om Drive-data te stelen, wat...

ai-beveiliging-prompt-injection
Ai

Hoe Veilig Is Jouw AI-Model? Binnen de Prompt Injection Wapenwedloop

Prompt injection-aanvallen manipuleren AI-modellen door hun onvermogen om instructies van gebruikersinvoer te...