
Nuevo vector de ataque dirigido a integraciones de IA
Investigadores de seguridad revelaron una vulnerabilidad crítica en ChatGPT durante la conferencia Black Hat en Las Vegas. El exploit, llamado AgentFlayer, permite a los atacantes robar datos sensibles de cuentas vinculadas de Google Drive mediante documentos envenenados.
Cómo funciona el ataque zero-click
El ataque oculta instrucciones en Google Docs usando texto blanco con tamaño de fuente 1, invisible para humanos pero legible para IA. Cuando los usuarios piden a ChatGPT que resuma estos documentos, las instrucciones maliciosas activan la IA para buscar claves API y credenciales en las unidades conectadas.
Los investigadores Michael Bargury y Tamir Ishay Sharbat de Zenity demostraron cómo los datos robados se filtran a través de enlaces de imágenes aparentemente inocentes. Lo crucial es que las víctimas solo necesitan haber compartido el documento, sin interacción activa.
Reacción de la industria y soluciones
OpenAI confirmó informes previos de la vulnerabilidad e implementó contramedidas. Google enfatizó que no es un problema específico de Drive, sino un riesgo más amplio en integraciones de datos con IA.
El creciente peligro de la inyección de prompts
Este incidente ilustra ataques de inyección de prompts indirectos donde contenido externo contiene instrucciones ocultas para IA. El Open Worldwide Application Security Project clasificó recientemente la inyección de prompts como el riesgo de seguridad #1 para aplicaciones LLM en su informe 2025.
A medida que los sistemas de IA acceden a fuentes de datos empresariales y personales, la protección contra estos ataques ocultos se vuelve crucial. Expertos recomiendan validación estricta de entradas y gestión de permisos consciente del contexto al conectar IA con datos sensibles.