Em 2026, bancos centrais como o Banco da Inglaterra e o Banco de Compensações Internacionais começaram a tratar formalmente a inteligência artificial — especialmente agentes de negociação autônomos — como um risco financeiro sistêmico, à altura de ameaças cibernéticas e choques climáticos. Com o crescimento de 75% ao ano no uso de IA agentiva entre investidores de varejo e adoção de 42% em algoritmos institucionais, reguladores alertam que sistemas autônomos fortemente acoplados, comportamento de manada e tempo reduzido para exploração de ataques podem desencadear quedas-relâmpago em cascata além da proteção dos circuit breakers atuais. O prazo de aplicação da Lei de IA da UE em agosto de 2026 adiciona urgência, transferindo a supervisão de negociações individuais para sistemas inteiros de tomada de decisão.
Por que os Bancos Centrais Estão Soando o Alarme
O Banco da Inglaterra publicou seus primeiros testes de estresse específicos para IA em abril de 2026, marcando uma mudança histórica. Os testes examinam cenários onde algoritmos de negociação com IA exibem comportamento de manada — vendendo ativos simultaneamente em resposta a sinais semelhantes — amplificando vendas além da capacidade dos circuit breakers. Segundo o Comitê de Política Financeira, essas medidas focam em perigos futuros plausíveis, como ameaças cibernéticas habilitadas por IA e falhas operacionais decorrentes de infraestrutura compartilhada. Os