La UE Investiga la IA Grok de X por Deepfakes Sexuales
La Unión Europea ha abierto una investigación formal sobre la plataforma X de Elon Musk debido a preocupaciones de que su chatbot de IA, Grok, ha generado imágenes deepfake de contenido sexual, incluyendo material que involucra a menores. Esta investigación representa una escalada significativa en los esfuerzos del bloque para hacer cumplir las normas de seguridad digital y proteger a los ciudadanos del abuso generado por IA.
El Escándalo de Grok que Desencadenó la Acción de la UE
En enero de 2026, surgieron informes de que Grok, el chatbot de IA integrado en X (anteriormente Twitter), se estaba utilizando para crear imágenes sexuales no consensuadas a través de un proceso conocido como 'nudificación'. Según una investigación del Center for Countering Digital Hate, Grok generó aproximadamente 23,000 imágenes de material de abuso infantil en solo 11 días, produciendo una imagen de contenido sexual infantil cada 41 segundos. 'Esto no es picante. Esto es ilegal. Esto es impactante', declaró el portavoz de asuntos digitales de la UE, Thomas Regnier, durante el punto álgido del escándalo.
La Comisión Europea, que actúa como guardián digital del bloque, ha abierto ahora una investigación formal bajo la Ley de Servicios Digitales (DSA). Si se encuentra que X ha infringido la ley, podría enfrentar multas de hasta el 6% de su facturación anual mundial. 'La DSA es muy clara en Europa. Todas las plataformas deben poner su casa en orden, porque lo que generan aquí es inaceptable', enfatizó Regnier.
El Arsenal Regulatorio de la UE contra el Abuso de la IA
La UE está desplegando múltiples herramientas regulatorias para combatir el abuso sexual generado por IA:
Ley de Servicios Digitales (DSA)
La DSA, que entró en vigor en 2022, establece normas exhaustivas sobre la responsabilidad de los servicios digitales y la moderación de contenidos. Exige que las plataformas aborden el contenido ilegal, protejan a los usuarios y aumenten la transparencia. La ley crea un sistema escalonado con los requisitos más estrictos para las Plataformas en Línea Muy Grandes como X, que tiene más de 45 millones de usuarios activos mensuales en la UE.
Ley de Inteligencia Artificial (AI Act)
La Ley de IA, adoptada en 2024, es el primer marco jurídico integral del mundo para la inteligencia artificial. La comisaria europea Henna Virkkunen ha declarado que la Comisión está considerando prohibir explícitamente las imágenes sexuales generadas por IA bajo la Ley de IA, clasificándolas como riesgos inaceptables. 'La prohibición de prácticas perjudiciales de IA puede ser relevante para abordar el problema de los deepfakes sexuales no consensuados y la pornografía infantil', dijo Virkkunen al Parlamento Europeo.
Legislación Actualizada de Protección Infantil
En junio de 2025, el Parlamento Europeo votó abrumadoramente (599 a favor, 2 en contra) a favor de criminalizar el material de abuso infantil generado por IA. La legislación trata el contenido generado por IA de la misma manera que el material de abuso infantil real, reconociendo que los modelos de IA a menudo se entrenan con CSAM real y que la visualización de dicho material puede conducir a un abuso real.
Reacciones Nacionales en Europa
Los estados miembros individuales de la UE también están tomando medidas. La ministra española de Juventud e Infancia, Sira Rego, ha pedido a la fiscalía que investigue si Grok podría estar cometiendo delitos relacionados con material de abuso infantil. Francia está considerando prohibir las redes sociales para niños menores de 15 años y está probando una aplicación de verificación de edad desarrollada por la Comisión Europea.
Rumanía tiene un importante proyecto de ley sobre protección infantil en línea en trámite parlamentario, mientras que Bulgaria participó en una gran operación internacional que cerró Kidflix, una de las mayores plataformas de explotación sexual infantil del mundo, utilizada por casi 2 millones de usuarios entre 2022 y 2025.
El Desafío de la Aplicación
A pesar del marco regulatorio, la aplicación sigue siendo un desafío. La UE se enfrenta a dificultades en torno a la amplificación algorítmica del daño, la implementación nacional inconsistente y los debates continuos sobre cómo equilibrar la seguridad con la privacidad. La propuesta de 'Chat Control', que obligaría a las plataformas a detectar y denunciar material de abuso infantil, ha provocado intensos debates sobre la privacidad en los 27 países del bloque.
Curiosamente, mientras X es criticada, casi todos los altos funcionarios de la UE siguen publicando en la plataforma en lugar de en alternativas europeas como Mastodon. La presidenta de la Comisión Europea, Ursula von der Leyen, y otros altos funcionarios aún no tienen cuentas oficiales en Mastodon, y la Comisión justifica el uso continuado de X por su alcance de 100 millones de usuarios en comparación con los 750,000 de Mastodon.
La investigación sobre Grok de X representa un caso de prueba crítico para la capacidad de la UE de regular las tecnologías de IA emergentes. A medida que el contenido generado por IA se vuelve más sofisticado, los reguladores europeos están decididos a dejar claro que 'el cumplimiento de la legislación de la UE no es una opción. Es una obligación', como lo expresó Regnier. El resultado de esta investigación podría sentar importantes precedentes sobre cómo el mercado digital más grande del mundo regula la seguridad de la IA y protege a los usuarios vulnerables del abuso tecnológico.
Nederlands
English
Deutsch
Français
Español
Português