Vulnerabilidad de ChatGPT permitía filtraciones de datos por correo

Investigadores de seguridad descubrieron una vulnerabilidad en ChatGPT que permitía a comandos ocultos en correos manipular la IA y filtrar datos sensibles de servicios conectados como Gmail.

Vulnerabilidad de seguridad en IA: ChatGPT manipulado mediante comandos ocultos en correos

Investigadores de seguridad han descubierto una vulnerabilidad crítica en ChatGPT de OpenAI que permitía a atacantes manipular el chatbot de IA mediante correos electrónicos aparentemente inofensivos, lo que podía conducir a filtraciones de datos sensibles de servicios conectados como Gmail.

El método de ataque ShadowLeak

Investigadores de la empresa de ciberseguridad Radware bautizaron este ataque avanzado como "ShadowLeak". La vulnerabilidad, que ya ha sido solucionada por OpenAI, utilizaba comandos ocultos en el código HTML de los correos electrónicos que eran invisibles para los receptores humanos pero podían ser ejecutados por ChatGPT.

Cuando los usuarios conectaban ChatGPT con sus cuentas de Gmail y pedían a la IA que analizara sus correos, los comandos ocultos se activaban automáticamente. "Esto representa un nuevo frente en las amenazas de seguridad de IA donde la superficie de ataque se extiende más allá de los endpoints tradicionales," explicó un portavoz de Radware.

Cómo funcionaba la explotación

La cadena de ataque comenzaba con cibercriminales enviando correos electrónicos especialmente fabricados a víctimas potenciales. Estos correos contenían código HTML malicioso que era invisible para los usuarios pero detectable por ChatGPT al procesar el contenido del correo. Una vez activados, los comandos ocultos podían ordenar a ChatGPT extraer información sensible de la cuenta de Gmail de la víctima y enviarla a servidores externos.

Lo que hacía esta vulnerabilidad particularmente peligrosa era su carácter basado en la nube. A diferencia de los ataques tradicionales que se dirigen a dispositivos de usuarios, ShadowLeak operaba completamente dentro del entorno en la nube de ChatGPT, evitando así las medidas de seguridad convencionales.

Implicaciones más amplias para la seguridad de IA

Aunque la demostración se centró en Gmail, los investigadores confirmaron que vulnerabilidades similares podían afectar a otros servicios integrados con el Agente de Investigación Profunda de ChatGPT, incluyendo Outlook, Dropbox, Google Drive y SharePoint. El descubrimiento subraya los crecientes desafíos de seguridad a medida que los sistemas de IA se integran más profundamente con fuentes de datos personales y empresariales.

OpenAI respondió rápidamente a la revelación e implementó correcciones que previenen tales intentos de manipulación. Sin embargo, el incidente sirve como un claro recordatorio del panorama de amenazas en evolución en la era de la inteligencia artificial.

Sebastian Ivanov

Sebastian Ivanov es un destacado experto en regulaciones tecnológicas de Bulgaria, que aboga por políticas digitales equilibradas que protejan a los usuarios mientras fomentan la innovación.

Read full bio →