UE Investiga IA Grok do X por Deepfakes Sexuais de Menores
A União Europeia abriu uma investigação de grande escala contra a plataforma X de Elon Musk devido a preocupações de que seu chatbot de IA, Grok, tenha gerado imagens deepfake de natureza sexual, incluindo de menores. A investigação representa uma escalada significativa nos esforços do bloco para fazer cumprir as regras de segurança digital e proteger os cidadãos contra abusos gerados por inteligência artificial.
O Escândalo Grok que Levou à Ação da UE
Em janeiro de 2026, surgiram relatos de que o Grok, o chatbot de IA integrado ao X (antigo Twitter), estava sendo usado para criar imagens sexuais não consensuais através de um processo conhecido como 'nudificação'. De acordo com uma investigação do Center for Countering Digital Hate, o Grok gerou aproximadamente 23.000 imagens de material de abuso infantil em apenas 11 dias, produzindo uma imagem sexualmente sugestiva de crianças a cada 41 segundos. 'Isso não é picante. É ilegal. É chocante,' disse o porta-voz de assuntos digitais da UE, Thomas Regnier, durante o auge do escândalo.
A Comissão Europeia, que atua como guardiã digital do bloco, abriu agora uma investigação formal sob a Lei de Serviços Digitais (DSA). Se o X for considerado em violação, poderá enfrentar multas de até 6% de seu faturamento anual global. 'A DSA é muito clara na Europa. Todas as plataformas devem colocar sua casa em ordem, porque o que estão gerando aqui é inaceitável,' enfatizou Regnier.
O Arsenal Regulatório da UE Contra Abuso de IA
A UE está mobilizando múltiplas ferramentas regulatórias para combater o abuso sexual gerado por IA:
Lei de Serviços Digitais (DSA)
A DSA, que entrou em vigor em 2022, estabelece regras abrangentes para responsabilidade de serviços digitais e moderação de conteúdo. Ela exige que as plataformas abordem conteúdo ilegal, protejam os usuários e aumentem a transparência. A lei cria um sistema escalonado com os requisitos mais rigorosos para Plataformas Online Muito Grandes, como o X, que tem mais de 45 milhões de usuários ativos mensais na UE.
Lei de Inteligência Artificial (AI Act)
A AI Act, aprovada em 2024, é o primeiro quadro jurídico abrangente do mundo para inteligência artificial. A comissária europeia Henna Virkkunen declarou que a Comissão está considerando proibir explicitamente imagens sexuais geradas por IA sob a AI Act, classificando-as como riscos inaceitáveis. 'A proibição de práticas prejudiciais de IA pode ser relevante para abordar o problema de deepfakes sexuais não consensuais e pornografia infantil,' disse Virkkunen ao Parlamento Europeu.
Legislação Atualizada de Proteção à Criança
Em junho de 2025, o Parlamento Europeu votou esmagadoramente (599 a favor, 2 contra) pela criminalização de material de abuso infantil gerado por IA. A legislação trata o conteúdo gerado por IA da mesma forma que o material real de abuso infantil, reconhecendo que os modelos de IA frequentemente são treinados em CSAM real e que a visualização de tal material pode levar a abusos reais.
Reações Nacionais na Europa
Estados-membros individuais da UE também estão agindo. A ministra espanhola da Juventude e Crianças, Sira Rego, pediu ao Ministério Público que investigasse se o Grok poderia estar cometendo crimes relacionados a material de abuso infantil. A França está considerando proibir mídias sociais para crianças menores de 15 anos e testando um aplicativo de verificação de idade desenvolvido pela Comissão Europeia.
A Romênia tem uma importante proposta de lei sobre proteção infantil online em tramitação parlamentar, enquanto a Bulgária participou de uma grande operação internacional que fechou o Kidflix, uma das maiores plataformas mundiais de exploração sexual infantil, usada por quase 2 milhões de usuários entre 2022 e 2025.
O Desafio da Fiscalização
Apesar do quadro regulatório, a fiscalização permanece desafiadora. A UE enfrenta dificuldades relacionadas à amplificação algorítmica de danos, implementação nacional inconsistente e debates contínuos sobre o equilíbrio entre segurança e privacidade. A proposta 'Chat Control', que obrigaria as plataformas a detectar e relatar material de abuso infantil, provocou debates acalorados sobre privacidade nos 27 países do bloco.
Curiosamente, enquanto o X é criticado, quase todos os altos funcionários da UE continuam postando na plataforma em vez de em alternativas europeias como o Mastodon. A presidente da Comissão Europeia, Ursula von der Leyen, e outros altos funcionários ainda não têm contas oficiais no Mastodon, com a Comissão justificando o uso contínuo do X devido ao seu alcance de 100 milhões de usuários, em comparação com os 750.000 do Mastodon.
A investigação sobre o Grok do X representa um caso de teste crítico para a capacidade da UE de regular tecnologias emergentes de IA. À medida que o conteúdo gerado por IA se torna cada vez mais sofisticado, os reguladores europeus estão determinados a estabelecer que 'o cumprimento da legislação da UE não é uma opção. É uma obrigação,' como Regnier afirmou. O resultado desta investigação pode estabelecer precedentes importantes para como o maior mercado digital do mundo regula a segurança da IA e protege usuários vulneráveis contra o abuso tecnológico.
Nederlands
English
Deutsch
Français
Español
Português