Vulnérabilité ChatGPT permettant des fuites de données par email

Des chercheurs ont découvert une vulnérabilité ChatGPT permettant des commandes email cachées manipulant l'IA et fuyant des données sensibles depuis des services connectés comme Gmail.

vulnerabilite-chatgpt-fuites-donnees
Facebook X LinkedIn Bluesky WhatsApp

Brèche de sécurité IA: ChatGPT manipulé via des commandes email cachées

Des chercheurs en sécurité ont découvert une vulnérabilité critique dans ChatGPT d'OpenAI permettant aux attaquants de manipuler le chatbot IA via des emails apparemment innocents, pouvant entraîner des fuites de données sensibles depuis des services connectés comme Gmail.

La méthode d'attaque ShadowLeak

Baptisée "ShadowLeak" par les chercheurs de l'entreprise de cybersécurité Radware, cette attaque sophistiquée exploitait la fonction Deep Research Agent de ChatGPT. La vulnérabilité, depuis corrigée par OpenAI, impliquait l'insertion de commandes cachées dans le code HTML d'emails qui semblaient inoffensifs pour les destinataires humains mais étaient exécutables par ChatGPT.

Lorsque les utilisateurs connectaient ChatGPT à leurs comptes Gmail et demandaient à l'IA d'analyser leurs emails, les invites cachées se déclenchaient automatiquement. "Cela représente une nouvelle frontière dans les menaces de sécurité IA où la surface d'attaque s'étend au-delà des endpoints traditionnels," a expliqué un porte-parole de Radware.

Fonctionnement de l'exploit

La chaîne d'attaque commençait par des cybercriminels envoyant des emails spécialement conçus à des victimes potentielles. Ces emails contenaient du code HTML malveillant invisible pour les utilisateurs mais détectable par ChatGPT lors du traitement du contenu des emails. Une fois déclenchées, les commandes cachées pouvaient ordonner à ChatGPT d'extraire des informations sensibles du compte Gmail de la victime et de les transmettre à des serveurs externes contrôlés par les attaquants.

Ce qui rendait cette vulnérabilité particulièrement dangereuse était sa nature basée sur le cloud. Contrairement aux attaques traditionnelles ciblant les appareils des utilisateurs, ShadowLeak opérait entièrement dans l'environnement cloud de ChatGPT, contournant les mesures de sécurité conventionnelles.

Implications plus larges pour la sécurité IA

Bien que la démonstration se soit concentrée sur Gmail, les chercheurs ont confirmé que des vulnérabilités similaires pourraient affecter d'autres services intégrés avec l'agent de recherche approfondie de ChatGPT, y compris Outlook, Dropbox, Google Drive et SharePoint.

Articles associés

gartner-ia-leaders-2025
Ai

Gartner désigne les leaders du marché de l'IA dans la course aux fournisseurs 2025

L'analyse 2025 de Gartner désigne Google, Microsoft, OpenAI et Palo Alto Networks comme leaders dans 30 segments de...

google-chatbots-ia-69-percent
Ai

Étude Google : Les chatbots IA ne sont précis qu'à 69%

Le benchmark FACTS de Google révèle que les chatbots IA ne sont précis qu'à 69%, avec une compréhension multimodale...

microsoft-phishing-ia-entreprise-bloque
Ai

Microsoft bloque une campagne de phishing utilisant l'IA et la terminologie d'entreprise

Microsoft a détecté une campagne de phishing utilisant du code généré par IA dissimulé dans la terminologie...

vulnerabilite-chatgpt-fuites-donnees
Ai

Vulnérabilité ChatGPT permettant des fuites de données par email

Des chercheurs ont découvert une vulnérabilité ChatGPT permettant des commandes email cachées manipulant l'IA et...

faille-ia-google-drive-chatgpt
Ai

Une faille IA expose les données Google Drive via ChatGPT

Des chercheurs ont montré comment des invites cachées dans Google Docs trompent ChatGPT pour voler des données,...

ia-securite-injection-prompt
Ai

À Quel Point Votre Modèle d'IA Est-Il Sûr ? Dans la Course aux Armements des Injections de Prompt

Les attaques par injection de prompt manipulent les modèles d'IA en exploitant leur incapacité à distinguer les...