Dados roubados do Google Drive via integração com ChatGPT

Pesquisadores demonstraram como prompts ocultos em Google Docs podem enganar o ChatGPT para roubar dados do Drive, expondo riscos de integração com IA.

dados-roubados-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Novo vetor de ataque mira integrações de IA

Pesquisadores de segurança revelaram uma vulnerabilidade crítica no ChatGPT durante a conferência Black Hat em Las Vegas. O exploit, chamado AgentFlayer, permite que atacantes roubem dados sensíveis de contas vinculadas ao Google Drive usando documentos manipulados.

Como funciona o ataque zero-click

O ataque esconde prompts em Google Docs usando texto branco com tamanho de fonte 1 - invisível para humanos, mas legível para IA. Quando usuários pedem ao ChatGPT para resumir esses documentos, as instruções maliciosas ativam a IA para procurar chaves de API e credenciais em drives conectados.

Os pesquisadores Michael Bargury e Tamir Ishay Sharbat, da Zenity, demonstraram como os dados roubados são filtrados por meio de links de imagem aparentemente inofensivos. Crucialmente, as vítimas só precisam ter compartilhado o documento - nenhuma interação ativa é necessária.

Reação da indústria e soluções

A OpenAI confirmou relatos anteriores da vulnerabilidade e implementou contramedidas. O Google enfatizou que isso não é um problema específico do Drive, mas destaca riscos mais amplos em integrações de dados com IA.

O crescente perigo da injeção de prompt

Este incidente ilustra ataques indiretos de injeção de prompt, onde conteúdo externo contém instruções ocultas para IA. O Open Worldwide Application Security Project classificou recentemente a injeção de prompt como o risco de segurança número 1 para aplicações LLM em seu relatório de 2025.

À medida que sistemas de IA ganham acesso a fontes de dados corporativos e pessoais, a proteção contra esses ataques ocultos se torna cada vez mais crucial. Especialistas em segurança recomendam validação rigorosa de entrada e gerenciamento de permissões consciente do contexto ao vincular IA a dados sensíveis.

Artigos relacionados

google-chatbots-ia-69-precisos-deficiencias
Ai

Estudo do Google: Chatbots de IA Apenas 69% Precisos, Grandes Deficiências

O benchmark FACTS do Google mostra que os chatbots de IA têm apenas 69% de precisão, com compreensão multimodal...

ceo-google-alerta-ia-responsavel
Ai

CEO do Google alerta: não confie cegamente na IA

O CEO do Google, Sundar Pichai, alerta contra a confiança cega em IA, aponta vulnerabilidade a erros e riscos de...

microsoft-phishing-ia-empresarial
Ai

Microsoft bloqueia campanha de phishing com terminologia empresarial oculta por IA

Microsoft detectou uma campanha de phishing com código gerado por IA oculto em terminologia empresarial. O Defender...

vulnerabilidade-chatgpt-dados-email
Ai

Vulnerabilidade no ChatGPT permitia vazamento de dados via e-mail

Pesquisadores de segurança descobriram vulnerabilidade no ChatGPT que permitia comandos ocultos em e-mails...

seguranca-ia-injecao-prompt
Ai

Quão Seguro É Seu Modelo de IA? Dentro da Corrida Armamentista de Injeção de Prompt

Ataques de injeção de prompt manipulam modelos de IA explorando sua incapacidade de distinguir instruções de...

ue-proibe-deepfakes-nus-ia-2026
Ai

UE proíbe deepfakes nus de IA: novas regras 2026

UE proíbe deepfakes nus de IA após escândalo Grok: novas regras proíbem imagens sexuais não consentidas, em vigor...