Vulnerabilidad de ChatGPT permitía filtraciones de datos por correo

Investigadores de seguridad descubrieron una vulnerabilidad en ChatGPT que permitía a comandos ocultos en correos manipular la IA y filtrar datos sensibles de servicios conectados como Gmail.

chatgpt-vulnerabilidad-filtracion-datos
Facebook X LinkedIn Bluesky WhatsApp

Vulnerabilidad de seguridad en IA: ChatGPT manipulado mediante comandos ocultos en correos

Investigadores de seguridad han descubierto una vulnerabilidad crítica en ChatGPT de OpenAI que permitía a atacantes manipular el chatbot de IA mediante correos electrónicos aparentemente inofensivos, lo que podía conducir a filtraciones de datos sensibles de servicios conectados como Gmail.

El método de ataque ShadowLeak

Investigadores de la empresa de ciberseguridad Radware bautizaron este ataque avanzado como "ShadowLeak". La vulnerabilidad, que ya ha sido solucionada por OpenAI, utilizaba comandos ocultos en el código HTML de los correos electrónicos que eran invisibles para los receptores humanos pero podían ser ejecutados por ChatGPT.

Cuando los usuarios conectaban ChatGPT con sus cuentas de Gmail y pedían a la IA que analizara sus correos, los comandos ocultos se activaban automáticamente. "Esto representa un nuevo frente en las amenazas de seguridad de IA donde la superficie de ataque se extiende más allá de los endpoints tradicionales," explicó un portavoz de Radware.

Cómo funcionaba la explotación

La cadena de ataque comenzaba con cibercriminales enviando correos electrónicos especialmente fabricados a víctimas potenciales. Estos correos contenían código HTML malicioso que era invisible para los usuarios pero detectable por ChatGPT al procesar el contenido del correo. Una vez activados, los comandos ocultos podían ordenar a ChatGPT extraer información sensible de la cuenta de Gmail de la víctima y enviarla a servidores externos.

Lo que hacía esta vulnerabilidad particularmente peligrosa era su carácter basado en la nube. A diferencia de los ataques tradicionales que se dirigen a dispositivos de usuarios, ShadowLeak operaba completamente dentro del entorno en la nube de ChatGPT, evitando así las medidas de seguridad convencionales.

Implicaciones más amplias para la seguridad de IA

Aunque la demostración se centró en Gmail, los investigadores confirmaron que vulnerabilidades similares podían afectar a otros servicios integrados con el Agente de Investigación Profunda de ChatGPT, incluyendo Outlook, Dropbox, Google Drive y SharePoint. El descubrimiento subraya los crecientes desafíos de seguridad a medida que los sistemas de IA se integran más profundamente con fuentes de datos personales y empresariales.

OpenAI respondió rápidamente a la revelación e implementó correcciones que previenen tales intentos de manipulación. Sin embargo, el incidente sirve como un claro recordatorio del panorama de amenazas en evolución en la era de la inteligencia artificial.

Artículos relacionados

gartner-ia-lideres-proveedores-2025
Ai

Gartner designa a los líderes del mercado de IA en la carrera de proveedores 2025

El análisis de Gartner para 2025 designa a Google, Microsoft, OpenAI y Palo Alto Networks como líderes en 30...

microsoft-phishing-ia-empresarial
Ai

Microsoft detiene campaña de phishing con terminología empresarial oculta por IA

Microsoft detectó una campaña de phishing que utilizaba código generado por IA oculto en terminología empresarial....

chatgpt-vulnerabilidad-filtracion-datos
Ai

Vulnerabilidad de ChatGPT permitía filtraciones de datos por correo

Investigadores de seguridad descubrieron una vulnerabilidad en ChatGPT que permitía a comandos ocultos en correos...

xai-grok-violacion-privacidad-conversaciones
Ai

xAI Filtra 370.000 Conversaciones Privadas de Grok en Gran Violación de Privacidad

xAI de Elon Musk expuso más de 370.000 conversaciones privadas del chatbot Grok mediante una función de compartir...

robo-datos-google-drive-chatgpt
Ai

Robo de datos de Google Drive mediante integración con ChatGPT

Investigadores demostraron cómo prompts ocultos en Google Docs pueden engañar a ChatGPT para robar datos de Drive,...

seguridad-ia-inyeccion-prompts
Ai

¿Qué tan seguro es tu modelo de IA? Dentro de la carrera armamentista de la inyección de prompts

Los ataques de inyección de prompts manipulan modelos de IA explotando su incapacidad para distinguir instrucciones...