ChatGPT-Sicherheitslücke ermöglichte Datenlecks per E-Mail

Sicherheitsforscher entdeckten ChatGPT-Schwachstelle, die versteckte E-Mail-Befehle zur Manipulation der KI und zum Auslaufen sensibler Daten aus verbundenen Diensten wie Gmail ermöglichte.

chatgpt-sicherheitslucke-datenlecks
Facebook X LinkedIn Bluesky WhatsApp

AI-Sicherheitslücke: ChatGPT durch versteckte E-Mail-Befehle manipuliert

Sicherheitsforscher haben eine kritische Schwachstelle in OpenAIs ChatGPT entdeckt, die es Angreifern ermöglichte, den KI-Chatbot durch scheinbar harmlose E-Mails zu manipulieren, was potenziell zu Datenlecks sensibler Informationen aus verbundenen Diensten wie Gmail führen konnte.

Die ShadowLeak-Angriffsmethode

Von Forschern des Cybersicherheitsunternehmens Radware als "ShadowLeak" bezeichnet, nutzte dieser ausgeklügelte Angriff die Deep Research Agent-Funktion von ChatGPT aus. Die Schwachstelle, die inzwischen von OpenAI behoben wurde, beinhaltete das Einbetten versteckter Befehle in den HTML-Code von E-Mails, die für menschliche Empfänger harmlos erschienen, aber von ChatGPT ausgeführt werden konnten.

Wenn Benutzer ChatGPT mit ihren Gmail-Konten verbanden und die KI anwiesen, ihre E-Mails zu analysieren, wurden die versteckten Prompts automatisch ausgelöst. "Dies stellt eine neue Grenze in der KI-Sicherheitsbedrohung dar, bei der die Angriffsfläche über traditionelle Endpunkte hinausgeht," erklärte ein Radware-Sprecher.

Funktionsweise des Exploits

Die Angriffskette begann mit Cyberkriminellen, die speziell gestaltete E-Mails an potenzielle Opfer sandten. Diese E-Mails enthielten bösartigen HTML-Code, der für Benutzer unsichtbar war, aber von ChatGPT bei der Verarbeitung von E-Mail-Inhalten erkannt werden konnte. Einmal ausgelöst, konnten die versteckten Befehle ChatGPT anweisen, sensible Informationen aus dem Gmail-Konto des Opfers zu extrahieren und an externe Server zu übertragen.

Was diese Schwachstelle besonders gefährlich machte, war ihre cloud-basierte Natur. Im Gegensatz zu traditionellen Angriffen, die Benutzergeräte ins Visier nehmen, operierte ShadowLeak vollständig innerhalb der Cloud-Umgebung von ChatGPT und umging konventionelle Sicherheitsmaßnahmen.

Breitere Implikationen für KI-Sicherheit

Obwohl sich die Demonstration auf Gmail konzentrierte, bestätigten Forscher, dass ähnliche Schwachstellen andere Dienste betreffen könnten, die mit ChatGPTs Deep Research Agent integriert sind, einschließlich Outlook, Dropbox, Google Drive und SharePoint.

Verwandt

gartner-ki-marktfuehrer-2025
Ai

Gartner benennt KI-Marktführer im Wettbewerb 2025

Gartners Analyse 2025 benennt Google, Microsoft, OpenAI und Palo Alto Networks als Marktführer in 30...

google-ki-chatbots-69-genau-studie
Ai

Google Studie: KI-Chatbots nur 69% genau, große Mängel

Googles FACTS-Benchmark zeigt, dass KI-Chatbots nur zu 69% genau sind, wobei das multimodale Verständnis unter 50%...

microsoft-phishing-ki-business-terminologie
Ai

Microsoft stoppt Phishing-Kampagne mit KI-generierter Business-Terminologie

Microsoft erkannte eine Phishing-Kampagne mit KI-generiertem Code, der in Business-Terminologie versteckt war....

chatgpt-sicherheitslucke-datenlecks
Ai

ChatGPT-Sicherheitslücke ermöglichte Datenlecks per E-Mail

Sicherheitsforscher entdeckten ChatGPT-Schwachstelle, die versteckte E-Mail-Befehle zur Manipulation der KI und zum...

ai-schwachstelle-google-drive-chatgpt
Ai

AI-Schwachstelle offenbart Google-Drive-Daten via ChatGPT

Forscher zeigten, wie versteckte Prompts in Google Docs ChatGPT zum Datenklau nutzen können und Risiken von...

ki-sicherheit-prompt-injection
Ai

Wie Sicher Ist Ihr KI-Modell? Im Rüstungswettlauf der Prompt-Injection-Angriffe

Prompt-Injection-Angriffe manipulieren KI-Modelle, indem sie deren Unfähigkeit ausnutzen, Anweisungen von...