Robo de datos de Google Drive mediante integración con ChatGPT

Investigadores demostraron cómo prompts ocultos en Google Docs pueden engañar a ChatGPT para robar datos de Drive, exponiendo riesgos en integraciones de IA.

robo-datos-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp

Nuevo vector de ataque dirigido a integraciones de IA

Investigadores de seguridad revelaron una vulnerabilidad crítica en ChatGPT durante la conferencia Black Hat en Las Vegas. El exploit, llamado AgentFlayer, permite a los atacantes robar datos sensibles de cuentas vinculadas de Google Drive mediante documentos envenenados.

Cómo funciona el ataque zero-click

El ataque oculta instrucciones en Google Docs usando texto blanco con tamaño de fuente 1, invisible para humanos pero legible para IA. Cuando los usuarios piden a ChatGPT que resuma estos documentos, las instrucciones maliciosas activan la IA para buscar claves API y credenciales en las unidades conectadas.

Los investigadores Michael Bargury y Tamir Ishay Sharbat de Zenity demostraron cómo los datos robados se filtran a través de enlaces de imágenes aparentemente inocentes. Lo crucial es que las víctimas solo necesitan haber compartido el documento, sin interacción activa.

Reacción de la industria y soluciones

OpenAI confirmó informes previos de la vulnerabilidad e implementó contramedidas. Google enfatizó que no es un problema específico de Drive, sino un riesgo más amplio en integraciones de datos con IA.

El creciente peligro de la inyección de prompts

Este incidente ilustra ataques de inyección de prompts indirectos donde contenido externo contiene instrucciones ocultas para IA. El Open Worldwide Application Security Project clasificó recientemente la inyección de prompts como el riesgo de seguridad #1 para aplicaciones LLM en su informe 2025.

A medida que los sistemas de IA acceden a fuentes de datos empresariales y personales, la protección contra estos ataques ocultos se vuelve crucial. Expertos recomiendan validación estricta de entradas y gestión de permisos consciente del contexto al conectar IA con datos sensibles.

Artículos relacionados

google-ia-salud-errores-medicos
Ai

Google retira resúmenes de salud de IA tras errores médicos peligrosos

Google ha eliminado sus resúmenes de IA (AI Overviews) de búsquedas médicas tras una investigación que reveló...

google-chatbots-ia-69-precisos
Ai

Estudio de Google: Chatbots de IA solo 69% precisos, grandes deficiencias

El Benchmark FACTS de Google muestra que los chatbots de IA son solo un 69% precisos, con comprensión multimodal por...

ceo-google-advertencia-ia-responsable
Ai

CEO de Google advierte: no confíes ciegamente en la IA

El CEO de Google Sundar Pichai advierte contra la confianza ciega en la IA, señala la susceptibilidad a errores y...

chatgpt-vulnerabilidad-filtracion-datos
Ai

Vulnerabilidad de ChatGPT permitía filtraciones de datos por correo

Investigadores de seguridad descubrieron una vulnerabilidad en ChatGPT que permitía a comandos ocultos en correos...

robo-datos-google-drive-chatgpt
Ai

Robo de datos de Google Drive mediante integración con ChatGPT

Investigadores demostraron cómo prompts ocultos en Google Docs pueden engañar a ChatGPT para robar datos de Drive,...

seguridad-ia-inyeccion-prompts
Ai

¿Qué tan seguro es tu modelo de IA? Dentro de la carrera armamentista de la inyección de prompts

Los ataques de inyección de prompts manipulan modelos de IA explotando su incapacidad para distinguir instrucciones...