ChatGPT-Sicherheitslücke ermöglichte Datenlecks per E-Mail

Sicherheitsforscher entdeckten ChatGPT-Schwachstelle, die versteckte E-Mail-Befehle zur Manipulation der KI und zum Auslaufen sensibler Daten aus verbundenen Diensten wie Gmail ermöglichte.

AI-Sicherheitslücke: ChatGPT durch versteckte E-Mail-Befehle manipuliert

Sicherheitsforscher haben eine kritische Schwachstelle in OpenAIs ChatGPT entdeckt, die es Angreifern ermöglichte, den KI-Chatbot durch scheinbar harmlose E-Mails zu manipulieren, was potenziell zu Datenlecks sensibler Informationen aus verbundenen Diensten wie Gmail führen konnte.

Die ShadowLeak-Angriffsmethode

Von Forschern des Cybersicherheitsunternehmens Radware als "ShadowLeak" bezeichnet, nutzte dieser ausgeklügelte Angriff die Deep Research Agent-Funktion von ChatGPT aus. Die Schwachstelle, die inzwischen von OpenAI behoben wurde, beinhaltete das Einbetten versteckter Befehle in den HTML-Code von E-Mails, die für menschliche Empfänger harmlos erschienen, aber von ChatGPT ausgeführt werden konnten.

Wenn Benutzer ChatGPT mit ihren Gmail-Konten verbanden und die KI anwiesen, ihre E-Mails zu analysieren, wurden die versteckten Prompts automatisch ausgelöst. "Dies stellt eine neue Grenze in der KI-Sicherheitsbedrohung dar, bei der die Angriffsfläche über traditionelle Endpunkte hinausgeht," erklärte ein Radware-Sprecher.

Funktionsweise des Exploits

Die Angriffskette begann mit Cyberkriminellen, die speziell gestaltete E-Mails an potenzielle Opfer sandten. Diese E-Mails enthielten bösartigen HTML-Code, der für Benutzer unsichtbar war, aber von ChatGPT bei der Verarbeitung von E-Mail-Inhalten erkannt werden konnte. Einmal ausgelöst, konnten die versteckten Befehle ChatGPT anweisen, sensible Informationen aus dem Gmail-Konto des Opfers zu extrahieren und an externe Server zu übertragen.

Was diese Schwachstelle besonders gefährlich machte, war ihre cloud-basierte Natur. Im Gegensatz zu traditionellen Angriffen, die Benutzergeräte ins Visier nehmen, operierte ShadowLeak vollständig innerhalb der Cloud-Umgebung von ChatGPT und umging konventionelle Sicherheitsmaßnahmen.

Breitere Implikationen für KI-Sicherheit

Obwohl sich die Demonstration auf Gmail konzentrierte, bestätigten Forscher, dass ähnliche Schwachstellen andere Dienste betreffen könnten, die mit ChatGPTs Deep Research Agent integriert sind, einschließlich Outlook, Dropbox, Google Drive und SharePoint.

Sebastian Ivanov

Sebastian Ivanov ist ein führender Experte für Technologieregulierung aus Bulgarien, der sich für ausgewogene digitale Politiken einsetzt, die Nutzer schützen und gleichzeitig Innovation fördern.

Read full bio →