Des chercheurs ont découvert une vulnérabilité ChatGPT permettant des commandes email cachées manipulant l'IA et fuyant des données sensibles depuis des services connectés comme Gmail.

Brèche de sécurité IA: ChatGPT manipulé via des commandes email cachées
Des chercheurs en sécurité ont découvert une vulnérabilité critique dans ChatGPT d'OpenAI permettant aux attaquants de manipuler le chatbot IA via des emails apparemment innocents, pouvant entraîner des fuites de données sensibles depuis des services connectés comme Gmail.
La méthode d'attaque ShadowLeak
Baptisée "ShadowLeak" par les chercheurs de l'entreprise de cybersécurité Radware, cette attaque sophistiquée exploitait la fonction Deep Research Agent de ChatGPT. La vulnérabilité, depuis corrigée par OpenAI, impliquait l'insertion de commandes cachées dans le code HTML d'emails qui semblaient inoffensifs pour les destinataires humains mais étaient exécutables par ChatGPT.
Lorsque les utilisateurs connectaient ChatGPT à leurs comptes Gmail et demandaient à l'IA d'analyser leurs emails, les invites cachées se déclenchaient automatiquement. "Cela représente une nouvelle frontière dans les menaces de sécurité IA où la surface d'attaque s'étend au-delà des endpoints traditionnels," a expliqué un porte-parole de Radware.
Fonctionnement de l'exploit
La chaîne d'attaque commençait par des cybercriminels envoyant des emails spécialement conçus à des victimes potentielles. Ces emails contenaient du code HTML malveillant invisible pour les utilisateurs mais détectable par ChatGPT lors du traitement du contenu des emails. Une fois déclenchées, les commandes cachées pouvaient ordonner à ChatGPT d'extraire des informations sensibles du compte Gmail de la victime et de les transmettre à des serveurs externes contrôlés par les attaquants.
Ce qui rendait cette vulnérabilité particulièrement dangereuse était sa nature basée sur le cloud. Contrairement aux attaques traditionnelles ciblant les appareils des utilisateurs, ShadowLeak opérait entièrement dans l'environnement cloud de ChatGPT, contournant les mesures de sécurité conventionnelles.
Implications plus larges pour la sécurité IA
Bien que la démonstration se soit concentrée sur Gmail, les chercheurs ont confirmé que des vulnérabilités similaires pourraient affecter d'autres services intégrés avec l'agent de recherche approfondie de ChatGPT, y compris Outlook, Dropbox, Google Drive et SharePoint.