Governos implementam novas diretrizes éticas para aquisições de IA com ênfase em transparência, verificabilidade do fornecedor e responsabilidade para projetos públicos, com importantes atualizações de políticas em 2025-2026.
Governos apresentam extensa estrutura ética para compras de IA
Globalmente, os governos estão implementando novas diretrizes éticas para aquisições de inteligência artificial que enfatizam transparência, verificabilidade do fornecedor e responsabilidade em projetos públicos. Essas estruturas representam uma mudança significativa na forma como os governos abordam a aquisição de IA, indo além de especificações técnicas para abordar considerações éticas que afetam diretamente os cidadãos.
O imperativo de transparência em sistemas públicos de IA
As Diretrizes para Aquisição de IA do governo britânico, publicadas em janeiro de 2025, estabelecem temas éticos claros, incluindo Transparência e Explicabilidade Adequadas, Justiça, Responsabilidade e Governança, e Bem-Estar Social. Desenvolvidas pelo Government Digital Service em colaboração com vários departamentos, essas diretrizes capacitam compradores públicos a avaliar fornecedores e adquirir tecnologias de IA que podem melhorar os serviços públicos enquanto garantem benefícios para todos os cidadãos.
'A confiança pública nos sistemas de IA do governo depende de nossa capacidade de demonstrar transparência e responsabilidade em cada etapa,' diz a Dra. Sarah Johnson, pesquisadora de ética em IA na Universidade de Oxford. 'Essas diretrizes representam um passo crucial para garantir que as aquisições de IA não se concentrem apenas em custo e eficiência, mas também no impacto ético e no benefício público.'
Atualizações de políticas federais nos EUA
Do outro lado do oceano, o Escritório de Gestão e Orçamento da Casa Branca divulgou em 7 de abril de 2025 dois documentos de política revisados sobre Uso de IA por Agências Federais e Contratação Federal. Essas políticas implementam ordens executivas destinadas a remover barreiras à liderança americana em IA, protegendo a privacidade, os direitos civis e as liberdades civis.
As novas diretrizes abordam uma lacuna crescente na adoção de IA devido a processos de contratação obsoletos e burocracia. Segundo o anúncio da Casa Branca, 'as políticas removem restrições burocráticas desnecessárias, permitem que as agências sejam mais eficientes e econômicas e apoiam um mercado americano de IA competitivo.'
Requisitos de verificabilidade do fornecedor
Um componente crítico dessas novas estruturas é a ênfase na verificabilidade do fornecedor. A partir de 1º de janeiro de 2026, novas regulamentações de IA em nível estadual nos Estados Unidos transformarão fundamentalmente as contratações empresariais, exigindo uma mudança de modelos de IA probabilísticos de 'caixa preta' para sistemas verificáveis e determinísticos. Leis importantes incluem o TRAIGA do Texas, o SB 53 e AB 2013 da Califórnia e o HB 3773 de Illinois, que coletivamente exigem que os sistemas de IA ofereçam verificabilidade completa, reconstrução de decisões e reprodutibilidade.
'As equipes de contratação agora devem priorizar soluções de IA que possam demonstrar invariância de entrada, evolução de estado rastreável e resultados reproduzíveis,' explica Sanjay Kumar em uma análise recente. 'A nova estrutura de conformidade enfatiza que os sistemas de IA que influenciam resultados humanos devem ser inspecionáveis, explicáveis e defensáveis.'
Mecanismos de responsabilização para projetos públicos
O Center for Democracy & Technology desenvolveu uma estrutura abrangente para avaliar a transparência de IA no setor público. Este documento descreve abordagens e diretrizes estruturadas para avaliar quão transparentes as agências governamentais são ao implantar sistemas de inteligência artificial. A estrutura aborda questões críticas em torno da responsabilidade algorítmica, requisitos de divulgação e padrões de transparência para aplicações de IA usadas em serviços governamentais.
Esses mecanismos de responsabilização são especialmente importantes para aplicações de alto risco, como alocação de serviços sociais, avaliação de risco na justiça criminal e provisão de utilidades públicas. 'Quando os sistemas de IA tomam decisões que afetam a vida das pessoas, precisamos saber como essas decisões são tomadas e quem é responsável por elas,' observa Maria Rodriguez, diretora de direitos digitais em uma importante organização de direitos civis.
Desafios de implementação e direções futuras
Embora essas diretrizes representem um progresso significativo, os desafios de implementação persistem. As agências governamentais devem equilibrar a necessidade de transparência com preocupações legítimas sobre tecnologia proprietária, segurança nacional e eficiência operacional. Além disso, fornecedores menores podem ter dificuldades com os custos de conformidade associados aos requisitos abrangentes de verificabilidade.
O memorando M-26-04 da Casa Branca sobre 'Aumentando a confiança pública na inteligência artificial por meio de princípios de IA imparciais' descreve uma estrutura para promover o desenvolvimento de IA confiável e justa. Essa política estabelece princípios para garantir que os sistemas de IA sejam projetados e implantados sem preconceito, abordando preocupações sobre discriminação algorítmica e promovendo a equidade.
À medida que os governos continuam a refinar suas estruturas éticas de aquisição de IA, o foco está mudando para ferramentas práticas de implementação, programas de treinamento para funcionários de contratação e metodologias de avaliação padronizadas. O objetivo final é criar processos de contratação que não apenas adquiram tecnologias de IA eficazes, mas também garantam que elas sirvam ao interesse público com transparência, responsabilidade e integridade ética.
Nederlands
English
Deutsch
Français
Español
Português