
Faille de confidentialité dans le service de chat IA
ChatGPT d'OpenAI a connu une faille de confidentialité majeure où les conversations partagées par les utilisateurs sont devenues accessibles publiquement via les résultats de recherche Google. Environ 70 000 conversations contenant potentiellement des informations personnelles sensibles ont été exposées.
Origine de l'exposition
Lorsque les utilisateurs généraient des liens de partage public pour des conversations ChatGPT, ceux-ci devenaient indexables par les moteurs de recherche. Une simple recherche Google utilisant le préfixe "site:chatgpt.com/share" révélait à la fois les questions des utilisateurs et les réponses de l'IA. OpenAI n'avait pas mis en place de garde-fous standards pour empêcher l'indexation de ces liens.
Réponse d'OpenAI
Suite aux rapports de TechCrunch, l'équipe de sécurité d'OpenAI a désactivé la fonctionnalité en quelques heures. La société a déclaré qu'il s'agissait d'une fonction expérimentale conçue pour aider les utilisateurs à trouver des conversations intéressantes, mais a reconnu les risques excessifs pour la vie privée. OpenAI collabore avec les moteurs de recherche pour supprimer le contenu indexé.
Implications pour la confidentialité
Cet incident met en lumière les préoccupations constantes concernant la confidentialité des chatbots IA. Les experts en sécurité recommandent :
- Évitez de partager des informations personnelles ou professionnelles sensibles
- Partez du principe que toutes les conversations peuvent être stockées ou exposées
- Vérifiez régulièrement les paramètres de confidentialité des plateformes d'IA