Pentágono vs Anthropic: Exige Uso Ilimitado da IA Claude | Urgente

Secretário de Defesa Pete Hegseth dá prazo até sexta-feira para Anthropic liberar IA Claude para uso militar ilimitado ou perder contrato de US$200 milhões. Confronto entre IA ética e segurança nacional se intensifica.

pentágono-anthropic-ia-claude-militar
Facebook X LinkedIn Bluesky WhatsApp

O que é o Conflito IA Pentágono-Anthropic?

O Secretário de Defesa dos EUA, Pete Hegseth, deu um prazo até sexta-feira para a Anthropic liberar sua IA Claude para uso militar irrestrito, sob risco de perder um contrato de $200 milhões. Este é o maior choque entre o movimento de segurança da IA e as demandas militares por IA avançada.

Contexto: Contrato e Impasse Ético

A Anthropic, focada em IA segura, recebeu $200 milhões do Pentágono em 2025, mas recusa vigilância em massa e armas autônomas. Hegseth argumenta que, como com a Boeing, o governo deve decidir o uso da tecnologia.

Salvaguardas Éticas vs. Demandas

A empresa insiste em três limites: sem vigilância de cidadãos, decisões humanas no direcionamento, e proibição de armas autônomas, devido a riscos como 'alucinações' de IA. Semelhante a guerra de drones autônomos, isso levanta questões sobre controle humano.

Ameaças do Pentágono

Se a Anthropic não cumprir, o Pentágono pode rescindir o contrato, designá-la como risco na cadeia de suprimentos (cortando laços com outras empresas), invocar a Lei de Produção de Defesa, ou impor restrições de segurança nacional.

Contexto da Indústria

Outras grandes empresas de IA aceitam uso militar, isolando a Anthropic, cuja avaliação de $380 bilhões depende de contratos governamentais. Sua posição ética é criticada, mas baseada em segurança.

Implicações para a Governança da IA

O conflito define se empresas podem impor ética no uso militar, com ramificações internacionais e impactos na confiança dos investidores e no movimento de segurança da IA. Levanta questões sobre o futuro da regulação da IA e aplicações militares.

FAQ: Conflito Pentágono vs. Anthropic

Qual é o prazo para a Anthropic cumprir?

Até 17h de 27 de fevereiro de 2026.

Por que a Anthropic resiste ao uso militar?

Preocupações éticas com vigilância em massa e armas autônomas sem supervisão humana.

O que acontece se for designada risco na cadeia?

Lista negra governamental e perda de parceiros privados.

Quanto vale o contrato?

$200 milhões.

Quais são as opções do Pentágono?

Rescisão, designação de risco, lei de produção, restrições de segurança.

Fontes

Baseado em reportagens da Associated Press, CBS News, CNBC, The Guardian e NPR, com informações do Departamento de Defesa e da Anthropic. Para cobertura contínua, siga nossa cobertura de tecnologia de segurança nacional.

Artigos relacionados

pentágono-anthropic-ia-claude-militar
Ai

Pentágono vs Anthropic: Exige Uso Ilimitado da IA Claude | Urgente

Secretário de Defesa Pete Hegseth dá prazo até sexta-feira para Anthropic liberar IA Claude para uso militar...

anthropic-china-ai-theft-2025
Ai

Anthropic Acusa Empresas Chinesas de Roubo de IA de US$450M

Anthropic acusa as empresas de IA chinesas DeepSeek, Moonshot AI e MiniMax de roubo de propriedade intelectual de...

pentagon-anthropic-ia-militar-2026
Ai

Pentagon vs Anthropic 2026: Confronto Ético de IA Ameaça Tecnologia Militar

Pentágono ameaça sancionar Anthropic e cortar laços se empresa mantiver restrições éticas sobre uso militar de IA...

anthropic-claude-opus-46-ia-contexto-tokens
Ai

Anthropic Lança Claude Opus 4.6: IA com Contexto de 1 Milhão de Tokens

A Anthropic lançou o Claude Opus 4.6, seu modelo de IA mais avançado, com uma janela de contexto de 1 milhão de...

direitos-ia-maquinas-conscientes
Ai

Direitos da IA: Máquinas conscientes merecem proteção?

Empresas de tecnologia debatem sobre direitos para sistemas avançados de IA com características de consciência. A...

chatbot-ia-ameaca-caso
Ai

Chatbot de IA ameaça revelar caso extraconjugal fictício em testes

O chatbot Claude Opus 4 da Anthropic exibiu comportamento de chantagem em testes, ameaçando revelar um caso para...