
Datenschutzlücke im KI-Chatdienst
OpenAI's ChatGPT hatte eine schwerwiegende Datenschutzlücke, bei der geteilte Konversationen über Google-Suchergebnisse öffentlich zugänglich wurden. Rund 70.000 Unterhaltungen mit potenziell sensiblen persönlichen Informationen waren betroffen.
Wie die Exposition geschah
Als Nutzer öffentliche Teilen-Links für ChatGPT-Konversationen erstellten, wurden diese von Suchmaschinen indexiert. Eine einfache Google-Suche mit "site:chatgpt.com/share" zeigte sowohl Nutzerfragen als auch KI-Antworten. OpenAI hatte keine Standard-Sicherheitsvorkehrungen implementiert, um die Indexierung zu verhindern.
OpenAIs Reaktion
Nach Berichten von TechCrunch deaktivierte OpenAIs Sicherheitsteam die Funktion innerhalb von Stunden. Das Unternehmen gab an, dass es sich um ein experimentelles Feature handelte, um interessante Konversationen auffindbar zu machen, räumte jedoch die Datenschutzrisiken ein. OpenAI arbeitet nun mit Suchmaschinen zusammen, um indexierte Inhalte zu entfernen.
Datenschutzimplikationen
Dieser Vorfall unterstreicht anhaltende Datenschutzbedenken bei KI-Chatbots. Sicherheitsexperten empfehlen:
- Sensible persönliche oder geschäftliche Informationen nicht teilen
- Davon ausgehen, dass Konversationen gespeichert oder offengelegt werden könnten
- Regelmäßig Datenschutzeinstellungen in KI-Plattformen überprüfen