Dados roubados do Google Drive via integração com ChatGPT

Pesquisadores demonstraram como prompts ocultos em Google Docs podem enganar o ChatGPT para roubar dados do Drive, expondo riscos de integração com IA.

dados-roubados-google-drive-chatgpt
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Novo vetor de ataque mira integrações de IA

Pesquisadores de segurança revelaram uma vulnerabilidade crítica no ChatGPT durante a conferência Black Hat em Las Vegas. O exploit, chamado AgentFlayer, permite que atacantes roubem dados sensíveis de contas vinculadas ao Google Drive usando documentos manipulados.

Como funciona o ataque zero-click

O ataque esconde prompts em Google Docs usando texto branco com tamanho de fonte 1 - invisível para humanos, mas legível para IA. Quando usuários pedem ao ChatGPT para resumir esses documentos, as instruções maliciosas ativam a IA para procurar chaves de API e credenciais em drives conectados.

Os pesquisadores Michael Bargury e Tamir Ishay Sharbat, da Zenity, demonstraram como os dados roubados são filtrados por meio de links de imagem aparentemente inofensivos. Crucialmente, as vítimas só precisam ter compartilhado o documento - nenhuma interação ativa é necessária.

Reação da indústria e soluções

A OpenAI confirmou relatos anteriores da vulnerabilidade e implementou contramedidas. O Google enfatizou que isso não é um problema específico do Drive, mas destaca riscos mais amplos em integrações de dados com IA.

O crescente perigo da injeção de prompt

Este incidente ilustra ataques indiretos de injeção de prompt, onde conteúdo externo contém instruções ocultas para IA. O Open Worldwide Application Security Project classificou recentemente a injeção de prompt como o risco de segurança número 1 para aplicações LLM em seu relatório de 2025.

À medida que sistemas de IA ganham acesso a fontes de dados corporativos e pessoais, a proteção contra esses ataques ocultos se torna cada vez mais crucial. Especialistas em segurança recomendam validação rigorosa de entrada e gerenciamento de permissões consciente do contexto ao vincular IA a dados sensíveis.

Artigos relacionados

google-chatbots-ia-69-precisos-deficiencias
Ai

Estudo do Google: Chatbots de IA Apenas 69% Precisos, Grandes Deficiências

O benchmark FACTS do Google mostra que os chatbots de IA têm apenas 69% de precisão, com compreensão multimodal...

ceo-google-alerta-ia-responsavel
Ai

CEO do Google alerta: não confie cegamente na IA

O CEO do Google, Sundar Pichai, alerta contra a confiança cega em IA, aponta vulnerabilidade a erros e riscos de...

vulnerabilidade-chatgpt-dados-email
Ai

Vulnerabilidade no ChatGPT permitia vazamento de dados via e-mail

Pesquisadores de segurança descobriram vulnerabilidade no ChatGPT que permitia comandos ocultos em e-mails...

seguranca-ia-injecao-prompt
Ai

Quão Seguro É Seu Modelo de IA? Dentro da Corrida Armamentista de Injeção de Prompt

Ataques de injeção de prompt manipulam modelos de IA explorando sua incapacidade de distinguir instruções de...

ia-motor-busca-europa-privacidade
Ai

Plataforma de IA holandesa com motor de busca é a resposta europeia à OpenAI

A empresa holandesa euqai lança uma plataforma de IA e um motor de busca como alternativa europeia à OpenAI, com...

guerra-semicondutores-exportacao-2024
Ai

Guerra dos Semicondutores: Controles de Exportação Dez 2024

Os controles de exportação de semicondutores de dezembro de 2024 são as restrições mais abrangentes dos EUA à IA da...