Dados roubados do Google Drive via integração com ChatGPT

Pesquisadores demonstraram como prompts ocultos em Google Docs podem enganar o ChatGPT para roubar dados do Drive, expondo riscos de integração com IA.

dados-roubados-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp

Novo vetor de ataque mira integrações de IA

Pesquisadores de segurança revelaram uma vulnerabilidade crítica no ChatGPT durante a conferência Black Hat em Las Vegas. O exploit, chamado AgentFlayer, permite que atacantes roubem dados sensíveis de contas vinculadas ao Google Drive usando documentos manipulados.

Como funciona o ataque zero-click

O ataque esconde prompts em Google Docs usando texto branco com tamanho de fonte 1 - invisível para humanos, mas legível para IA. Quando usuários pedem ao ChatGPT para resumir esses documentos, as instruções maliciosas ativam a IA para procurar chaves de API e credenciais em drives conectados.

Os pesquisadores Michael Bargury e Tamir Ishay Sharbat, da Zenity, demonstraram como os dados roubados são filtrados por meio de links de imagem aparentemente inofensivos. Crucialmente, as vítimas só precisam ter compartilhado o documento - nenhuma interação ativa é necessária.

Reação da indústria e soluções

A OpenAI confirmou relatos anteriores da vulnerabilidade e implementou contramedidas. O Google enfatizou que isso não é um problema específico do Drive, mas destaca riscos mais amplos em integrações de dados com IA.

O crescente perigo da injeção de prompt

Este incidente ilustra ataques indiretos de injeção de prompt, onde conteúdo externo contém instruções ocultas para IA. O Open Worldwide Application Security Project classificou recentemente a injeção de prompt como o risco de segurança número 1 para aplicações LLM em seu relatório de 2025.

À medida que sistemas de IA ganham acesso a fontes de dados corporativos e pessoais, a proteção contra esses ataques ocultos se torna cada vez mais crucial. Especialistas em segurança recomendam validação rigorosa de entrada e gerenciamento de permissões consciente do contexto ao vincular IA a dados sensíveis.

Artigos relacionados

google-resumos-saude-ia-erros
Ai

Google Remove Resumos de Saúde Gerados por IA Após Erros Perigosos

O Google removeu sua funcionalidade AI Overviews de pesquisas médicas após uma investigação revelar que fornecia...

google-chatbots-ia-69-precisos-deficiencias
Ai

Estudo do Google: Chatbots de IA Apenas 69% Precisos, Grandes Deficiências

O benchmark FACTS do Google mostra que os chatbots de IA têm apenas 69% de precisão, com compreensão multimodal...

ceo-google-alerta-ia-responsavel
Ai

CEO do Google alerta: não confie cegamente na IA

O CEO do Google, Sundar Pichai, alerta contra a confiança cega em IA, aponta vulnerabilidade a erros e riscos de...

vulnerabilidade-chatgpt-dados-email
Ai

Vulnerabilidade no ChatGPT permitia vazamento de dados via e-mail

Pesquisadores de segurança descobriram vulnerabilidade no ChatGPT que permitia comandos ocultos em e-mails...

dados-roubados-google-drive-chatgpt
Ai

Dados roubados do Google Drive via integração com ChatGPT

Pesquisadores demonstraram como prompts ocultos em Google Docs podem enganar o ChatGPT para roubar dados do Drive,...

seguranca-ia-injecao-prompt
Ai

Quão Seguro É Seu Modelo de IA? Dentro da Corrida Armamentista de Injeção de Prompt

Ataques de injeção de prompt manipulam modelos de IA explorando sua incapacidade de distinguir instruções de...