ChatGPT-kwetsbaarheid liet datalekken via e-mail toe

Beveiligingsonderzoekers ontdekten ChatGPT-kwetsbaarheid waardoor verborgen e-mailcommando's AI konden manipuleren en gevoelige data uit verbonden diensten zoals Gmail konden lekken.

chatgpt-kwetsbaarheid-datalekken
Image for ChatGPT-kwetsbaarheid liet datalekken via e-mail toe

AI-beveiligingslek: ChatGPT gemanipuleerd via verborgen e-mailcommando's

Beveiligingsonderzoekers hebben een kritieke kwetsbaarheid in OpenAI's ChatGPT ontdekt die aanvallers in staat stelde de AI-chatbot te manipuleren via ogenschijnlijk onschuldige e-mails, wat kon leiden tot datalekken van gevoelige gegevens uit verbonden diensten zoals Gmail.

De ShadowLeak-aanvalsmethode

Onderzoekers van cybersecuritybedrijf Radware doopten deze geavanceerde aanval "ShadowLeak". De kwetsbaarheid, die inmiddels door OpenAI is verholpen, maakte gebruik van verborgen commando's in de HTML-code van e-mails die onzichtbaar waren voor menselijke ontvangers maar wel uitgevoerd konden worden door ChatGPT.

Wanneer gebruikers ChatGPT verbonden met hun Gmail-accounts en de AI opdroegen hun e-mails te analyseren, werden de verborgen prompts automatisch geactiveerd. "Dit vertegenwoordigt een nieuw front in AI-beveiligingsbedreigingen waar het aanvalsoppervlak verder reikt dan traditionele endpoints," legde een Radware-woordvoerder uit.

Hoe de exploit werkte

De aanvalsketen begon met cybercriminelen die speciaal vervaardigde e-mails naar potentiële slachtoffers stuurden. Deze e-mails bevatten kwaadaardige HTML-code die onzichtbaar was voor gebruikers maar detecteerbaar door ChatGPT bij het verwerken van e-mailinhoud. Eenmaal geactiveerd, konden de verborgen commando's ChatGPT opdragen gevoelige informatie uit het Gmail-account van het slachtoffer te extraheren en naar externe servers te sturen.

Wat deze kwetsbaarheid bijzonder gevaarlijk maakte, was het cloud-gebaseerde karakter. In tegenstelling tot traditionele aanvallen die gebruikersapparaten targeten, opereerde ShadowLeak volledig binnen de cloudomgeving van ChatGPT, waardoor conventionele beveiligingsmaatregelen werden omzeild.

Bredere implicaties voor AI-beveiliging

Hoewel de demonstratie zich richtte op Gmail, bevestigden onderzoekers dat soortgelijke kwetsbaarheden andere diensten konden treffen die zijn geïntegreerd met ChatGPT's Deep Research Agent, waaronder Outlook, Dropbox, Google Drive en SharePoint. De ontdekking benadrukt de groeiende beveiligingsuitdagingen naarmate AI-systemen dieper geïntegreerd raken met persoonlijke en zakelijke gegevensbronnen.

OpenAI reageerde prompt op de onthulling en implementeerde fixes die dergelijke manipulatiepogingen voorkomen. Het incident dient echter als een duidelijke herinnering aan het evoluerende dreigingslandschap in het tijdperk van kunstmatige intelligentie.