
Un nouveau vecteur d'attaque cible les intégrations IA
Des chercheurs en sécurité ont démontré une vulnérabilité critique dans ChatGPT lors de la conférence Black Hat à Las Vegas. Baptisée AgentFlayer, cette exploitation permet aux attaquants de voler des données sensibles des comptes Google Drive connectés via des documents empoisonnés.
Fonctionnement de l'attaque zero-click
L'attaque implique l'insertion d'invites cachées dans Google Docs utilisant du texte blanc de taille 1 - invisible pour les humains mais lisible par l'IA. Lorsque les utilisateurs demandent à ChatGPT de résumer ces documents, les instructions malveillantes déclenchent la recherche de clés API et identifiants dans les drives connectés.
Les chercheurs Michael Bargury et Tamir Ishay Sharbat de Zenity ont montré comment les données volées sont exfiltrées via des liens d'images en Markdown apparemment innocents. Point crucial : les victimes n'ont qu'à avoir le document partagé avec leur compte - aucune interaction active requise.
Réponse de l'industrie et atténuation
OpenAI a confirmé avoir reçu des rapports sur la vulnérabilité plus tôt cette année et a mis en œuvre des contre-mesures. Google a souligné qu'il ne s'agit pas d'une faille spécifique à Drive mais met en lumière des risques plus larges dans les intégrations IA-données.
La menace croissante de l'injection de prompts
Cet incident illustre les attaques par injection de prompts indirectes où du contenu externe contient des instructions IA cachées. L'Open Worldwide Application Security Project a récemment classé l'injection de prompts comme risque de sécurité n°1 pour les applications LLM dans son rapport 2025.
Alors que les systèmes IA accèdent à des référentiels de données professionnelles et personnelles, la protection contre ces attaques sournoises devient cruciale. Les experts recommandent une validation stricte des entrées et des contrôles d'autorisation conscients du contexte lors du lien entre IA et sources de données sensibles.