Une faille IA expose les données Google Drive via ChatGPT

Des chercheurs ont montré comment des invites cachées dans Google Docs trompent ChatGPT pour voler des données, révélant les risques d'intégration IA.

faille-ia-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp

Un nouveau vecteur d'attaque cible les intégrations IA

Des chercheurs en sécurité ont démontré une vulnérabilité critique dans ChatGPT lors de la conférence Black Hat à Las Vegas. Baptisée AgentFlayer, cette exploitation permet aux attaquants de voler des données sensibles des comptes Google Drive connectés via des documents empoisonnés.

Fonctionnement de l'attaque zero-click

L'attaque implique l'insertion d'invites cachées dans Google Docs utilisant du texte blanc de taille 1 - invisible pour les humains mais lisible par l'IA. Lorsque les utilisateurs demandent à ChatGPT de résumer ces documents, les instructions malveillantes déclenchent la recherche de clés API et identifiants dans les drives connectés.

Les chercheurs Michael Bargury et Tamir Ishay Sharbat de Zenity ont montré comment les données volées sont exfiltrées via des liens d'images en Markdown apparemment innocents. Point crucial : les victimes n'ont qu'à avoir le document partagé avec leur compte - aucune interaction active requise.

Réponse de l'industrie et atténuation

OpenAI a confirmé avoir reçu des rapports sur la vulnérabilité plus tôt cette année et a mis en œuvre des contre-mesures. Google a souligné qu'il ne s'agit pas d'une faille spécifique à Drive mais met en lumière des risques plus larges dans les intégrations IA-données.

La menace croissante de l'injection de prompts

Cet incident illustre les attaques par injection de prompts indirectes où du contenu externe contient des instructions IA cachées. L'Open Worldwide Application Security Project a récemment classé l'injection de prompts comme risque de sécurité n°1 pour les applications LLM dans son rapport 2025.

Alors que les systèmes IA accèdent à des référentiels de données professionnelles et personnelles, la protection contre ces attaques sournoises devient cruciale. Les experts recommandent une validation stricte des entrées et des contrôles d'autorisation conscients du contexte lors du lien entre IA et sources de données sensibles.

Articles associés

google-syntheses-ia-sante-erreurs-medicales
Ai

Google retire ses synthèses IA sur la santé après des erreurs médicales dangereuses

Google a retiré ses synthèses IA (AI Overviews) des recherches médicales après une enquête révélant qu'elles...

google-chatbots-ia-69-percent
Ai

Étude Google : Les chatbots IA ne sont précis qu'à 69%

Le benchmark FACTS de Google révèle que les chatbots IA ne sont précis qu'à 69%, avec une compréhension multimodale...

p-d-g-google-garde-confiance-aveugle-ia
Ai

Le PDG de Google met en garde contre une confiance aveugle dans l'IA

Le PDG de Google Sundar Pichai met en garde contre une confiance aveugle dans l'IA, souligne la sensibilité aux...

vulnerabilite-chatgpt-fuites-donnees
Ai

Vulnérabilité ChatGPT permettant des fuites de données par email

Des chercheurs ont découvert une vulnérabilité ChatGPT permettant des commandes email cachées manipulant l'IA et...

faille-ia-google-drive-chatgpt
Ai

Une faille IA expose les données Google Drive via ChatGPT

Des chercheurs ont montré comment des invites cachées dans Google Docs trompent ChatGPT pour voler des données,...

ia-securite-injection-prompt
Ai

À Quel Point Votre Modèle d'IA Est-Il Sûr ? Dans la Course aux Armements des Injections de Prompt

Les attaques par injection de prompt manipulent les modèles d'IA en exploitant leur incapacité à distinguer les...