Comment la vulnérabilité d'exfiltration de données dans ChatGPT a mis en lumière les failles de sécurité des IA génératives
Un défaut critique qui menace la confiance des utilisateurs : la vulnérabilité d’exfiltration de données dans ChatGPT En 2026, OpenAI a dû corriger une faille d’exfiltration de données dans ChatGPT qui permettait, grâce à un simple prompt malveillant, de siphonner des conversations, des fichiers téléchargés et d’autres informations sensibles sans aucune notification à l’utilisateur. Cette découverte, mise en avant par le laboratoire de recherche de sécurité Check Point, a déclenché une onde de choc dans le secteur français de la cybersécurité, où les organisations s’appuient de plus en plus sur les modèles de langage pour automatiser des processus critiques.
By Théophane Villedieu
lire plus