Vulnerabilidade no ChatGPT permitia vazamento de dados via e-mail

Pesquisadores de segurança descobriram vulnerabilidade no ChatGPT que permitia comandos ocultos em e-mails manipularem a IA e vazarem dados sensíveis de serviços conectados como Gmail.

vulnerabilidade-chatgpt-dados-email
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Vulnerabilidade de segurança em IA: ChatGPT manipulado via comandos ocultos de e-mail

Pesquisadores de segurança descobriram uma vulnerabilidade crítica no ChatGPT da OpenAI que permitia aos atacantes manipular o chatbot de IA através de e-mails aparentemente inofensivos, o que poderia levar ao vazamento de dados sensíveis de serviços conectados como o Gmail.

O método de ataque ShadowLeak

Pesquisadores da empresa de segurança cibernética Radware batizaram este ataque avançado de "ShadowLeak". A vulnerabilidade, que já foi corrigida pela OpenAI, utilizava comandos ocultos no código HTML de e-mails que eram invisíveis para destinatários humanos, mas podiam ser executados pelo ChatGPT.

Quando os usuários conectavam o ChatGPT às suas contas do Gmail e pediam à IA para analisar seus e-mails, os prompts ocultos eram automaticamente ativados. "Isso representa uma nova frente em ameaças de segurança de IA, onde a superfície de ataque vai além dos endpoints tradicionais," explicou um porta-voz da Radware.

Como a exploração funcionava

A cadeia de ataque começava com criminosos cibernéticos enviando e-mails especialmente fabricados para vítimas em potencial. Esses e-mails continham código HTML malicioso que era invisível para os usuários, mas detectável pelo ChatGPT ao processar o conteúdo do e-mail. Uma vez ativados, os comandos ocultos podiam ordenar que o ChatGPT extraísse informações sensíveis da conta do Gmail da vítima e as enviasse para servidores externos.

O que tornava essa vulnerabilidade particularmente perigosa era seu caráter baseado em nuvem. Diferente de ataques tradicionais que visam dispositivos de usuários, o ShadowLeak operava completamente dentro do ambiente de nuvem do ChatGPT, contornando assim as medidas de segurança convencionais.

Implicações mais amplas para segurança de IA

Embora a demonstração tenha se concentrado no Gmail, os pesquisadores confirmaram que vulnerabilidades semelhantes poderiam afetar outros serviços integrados com o Deep Research Agent do ChatGPT, incluindo Outlook, Dropbox, Google Drive e SharePoint. A descoberta destaca os crescentes desafios de segurança à medida que os sistemas de IA se integram mais profundamente com fontes de dados pessoais e empresariais.

A OpenAI respondeu prontamente à revelação e implementou correções que previnem tais tentativas de manipulação. No entanto, o incidente serve como um lembrete claro da evolução do cenário de ameaças na era da inteligência artificial.

Artigos relacionados

openai-chatbot-adulto-adiado-2024
Ai

Chatbot Erótico da OpenAI: Modo Adulto Adiado Indefinidamente

OpenAI adia indefinidamente o chatbot erótico 'Modo Adulto' devido a preocupações com segurança, pressão de...

microsoft-phishing-ia-empresarial
Ai

Microsoft bloqueia campanha de phishing com terminologia empresarial oculta por IA

Microsoft detectou uma campanha de phishing com código gerado por IA oculto em terminologia empresarial. O Defender...

dados-roubados-google-drive-chatgpt
Ai

Dados roubados do Google Drive via integração com ChatGPT

Pesquisadores demonstraram como prompts ocultos em Google Docs podem enganar o ChatGPT para roubar dados do Drive,...

seguranca-ia-injecao-prompt
Ai

Quão Seguro É Seu Modelo de IA? Dentro da Corrida Armamentista de Injeção de Prompt

Ataques de injeção de prompt manipulam modelos de IA explorando sua incapacidade de distinguir instruções de...

openai-google-deepmind-ia-2025
Ai

OpenAI vs. Google DeepMind: Quem vence a corrida da IA em 2025?

Em 2025, a OpenAI e a Google DeepMind continuam sua intensa rivalidade no desenvolvimento de IA. A OpenAI se...

ue-proibe-deepfakes-nus-ia-2026
Ai

UE proíbe deepfakes nus de IA: novas regras 2026

UE proíbe deepfakes nus de IA após escândalo Grok: novas regras proíbem imagens sexuais não consentidas, em vigor...