Robo de datos de Google Drive mediante integración con ChatGPT

Investigadores demostraron cómo prompts ocultos en Google Docs pueden engañar a ChatGPT para robar datos de Drive, exponiendo riesgos en integraciones de IA.

robo-datos-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Nuevo vector de ataque dirigido a integraciones de IA

Investigadores de seguridad revelaron una vulnerabilidad crítica en ChatGPT durante la conferencia Black Hat en Las Vegas. El exploit, llamado AgentFlayer, permite a los atacantes robar datos sensibles de cuentas vinculadas de Google Drive mediante documentos envenenados.

Cómo funciona el ataque zero-click

El ataque oculta instrucciones en Google Docs usando texto blanco con tamaño de fuente 1, invisible para humanos pero legible para IA. Cuando los usuarios piden a ChatGPT que resuma estos documentos, las instrucciones maliciosas activan la IA para buscar claves API y credenciales en las unidades conectadas.

Los investigadores Michael Bargury y Tamir Ishay Sharbat de Zenity demostraron cómo los datos robados se filtran a través de enlaces de imágenes aparentemente inocentes. Lo crucial es que las víctimas solo necesitan haber compartido el documento, sin interacción activa.

Reacción de la industria y soluciones

OpenAI confirmó informes previos de la vulnerabilidad e implementó contramedidas. Google enfatizó que no es un problema específico de Drive, sino un riesgo más amplio en integraciones de datos con IA.

El creciente peligro de la inyección de prompts

Este incidente ilustra ataques de inyección de prompts indirectos donde contenido externo contiene instrucciones ocultas para IA. El Open Worldwide Application Security Project clasificó recientemente la inyección de prompts como el riesgo de seguridad #1 para aplicaciones LLM en su informe 2025.

A medida que los sistemas de IA acceden a fuentes de datos empresariales y personales, la protección contra estos ataques ocultos se vuelve crucial. Expertos recomiendan validación estricta de entradas y gestión de permisos consciente del contexto al conectar IA con datos sensibles.

Artículos relacionados

google-chatbots-ia-69-precisos
Ai

Estudio de Google: Chatbots de IA solo 69% precisos, grandes deficiencias

El Benchmark FACTS de Google muestra que los chatbots de IA son solo un 69% precisos, con comprensión multimodal por...

ceo-google-advertencia-ia-responsable
Ai

CEO de Google advierte: no confíes ciegamente en la IA

El CEO de Google Sundar Pichai advierte contra la confianza ciega en la IA, señala la susceptibilidad a errores y...

microsoft-phishing-ia-empresarial
Ai

Microsoft detiene campaña de phishing con terminología empresarial oculta por IA

Microsoft detectó una campaña de phishing que utilizaba código generado por IA oculto en terminología empresarial....

chatgpt-vulnerabilidad-filtracion-datos
Ai

Vulnerabilidad de ChatGPT permitía filtraciones de datos por correo

Investigadores de seguridad descubrieron una vulnerabilidad en ChatGPT que permitía a comandos ocultos en correos...

seguridad-ia-inyeccion-prompts
Ai

¿Qué tan seguro es tu modelo de IA? Dentro de la carrera armamentista de la inyección de prompts

Los ataques de inyección de prompts manipulan modelos de IA explotando su incapacidad para distinguir instrucciones...

ue-deepfakes-nudistas-grok
Ai

UE prohíbe deepfakes nudistas tras escándalo Grok

La UE prohíbe los deepfakes de desnudos con IA tras el escándalo de Grok: nuevas reglas prohíben imágenes sexuales...