Novo vetor de ataque mira integrações de IA
Pesquisadores de segurança revelaram uma vulnerabilidade crítica no ChatGPT durante a conferência Black Hat em Las Vegas. O exploit, chamado AgentFlayer, permite que atacantes roubem dados sensíveis de contas vinculadas ao Google Drive usando documentos manipulados.
Como funciona o ataque zero-click
O ataque esconde prompts em Google Docs usando texto branco com tamanho de fonte 1 - invisível para humanos, mas legível para IA. Quando usuários pedem ao ChatGPT para resumir esses documentos, as instruções maliciosas ativam a IA para procurar chaves de API e credenciais em drives conectados.
Os pesquisadores Michael Bargury e Tamir Ishay Sharbat, da Zenity, demonstraram como os dados roubados são filtrados por meio de links de imagem aparentemente inofensivos. Crucialmente, as vítimas só precisam ter compartilhado o documento - nenhuma interação ativa é necessária.
Reação da indústria e soluções
A OpenAI confirmou relatos anteriores da vulnerabilidade e implementou contramedidas. O Google enfatizou que isso não é um problema específico do Drive, mas destaca riscos mais amplos em integrações de dados com IA.
O crescente perigo da injeção de prompt
Este incidente ilustra ataques indiretos de injeção de prompt, onde conteúdo externo contém instruções ocultas para IA. O Open Worldwide Application Security Project classificou recentemente a injeção de prompt como o risco de segurança número 1 para aplicações LLM em seu relatório de 2025.
À medida que sistemas de IA ganham acesso a fontes de dados corporativos e pessoais, a proteção contra esses ataques ocultos se torna cada vez mais crucial. Especialistas em segurança recomendam validação rigorosa de entrada e gerenciamento de permissões consciente do contexto ao vincular IA a dados sensíveis.