La faille de chiffrement du chatbot AI expose les conversations des utilisateurs aux pirates

8
La faille de chiffrement du chatbot AI expose les conversations des utilisateurs aux pirates

Une vulnérabilité critique dans les chatbots IA populaires permet aux pirates d’intercepter les messages malgré le cryptage, soulevant de sérieux problèmes de confidentialité. Des chercheurs en cybersécurité de Microsoft ont découvert une méthode, baptisée « Whisper Leak », qui exploite les métadonnées pour déduire le contenu des conversations entre les utilisateurs et les grands modèles de langage (LLM). Cela signifie que les discussions sensibles peuvent être surveillées sans casser directement le cryptage.

Comment fonctionne l’attaque

L’attaque Whisper Leak est un exploit sophistiqué de type « homme du milieu ». Au lieu de décrypter le contenu réel du message, les pirates interceptent et analysent les métadonnées associées aux communications LLM. Les métadonnées incluent des détails tels que la taille et la synchronisation des paquets qui, lorsqu’ils sont analysés correctement, peuvent révéler des modèles suggérant le sujet de la conversation.

La clé est la prévisibilité. Les LLM génèrent des réponses basées sur des invites, ce qui se traduit par des longueurs de jetons et des délais de réponse cohérents. En observant ces modèles, les chercheurs ont pu reconstruire des phrases plausibles à partir des données cryptées sans jamais contourner le cryptage lui-même. Cette technique est une version raffinée des méthodes de surveillance utilisées par les gouvernements, telles que l’Investigatory Powers Act du Royaume-Uni, qui déduit le contenu des métadonnées sans lire directement les messages.

Réponse de l’industrie : un bilan mitigé

Microsoft et OpenAI, le développeur de ChatGPT, ont été informés de la vulnérabilité en juin 2025 et ont depuis pris des mesures pour évaluer le risque et mettre en œuvre des correctifs. Cependant, tous les fournisseurs LLM n’ont pas répondu de la même manière. Certains ont refusé d’appliquer les correctifs, tandis que d’autres n’ont pas répondu du tout. Les chercheurs ont intentionnellement caché les noms des plateformes qui ne répondent pas pour éviter l’humiliation du public, mais ont confirmé que la faille n’est toujours pas corrigée sur plusieurs services.

“Les LLM sont une mine d’or d’informations”, déclare Dave Lear, analyste en cybersécurité. “Les gens y mettaient tout, y compris les données médicales, à mesure que les hôpitaux commençaient à les utiliser. Il était inévitable que quelqu’un trouve un moyen d’exfiltrer ces informations.”

Pourquoi c’est important

La vulnérabilité met en évidence une faiblesse fondamentale dans la façon dont les LLM sont actuellement déployés. Même si le chiffrement de bout en bout protège le contenu des messages, les métadonnées restent une fuite potentielle. Les implications sont importantes, d’autant plus que les LLM sont de plus en plus intégrés dans des domaines sensibles comme les soins de santé, la finance et les services juridiques.

Les gouvernements ou les acteurs malveillants pourraient exploiter cette faille pour identifier les utilisateurs discutant de sujets spécifiques, tels que le blanchiment d’argent ou la dissidence politique, même si les communications sont cryptées. Cela mine la notion même de conversations privées avec des assistants IA.

Atténuation et protection

Les fournisseurs de LLM peuvent mettre en œuvre plusieurs contre-mesures :

  • Remplissage aléatoire : Ajout d’octets aléatoires aux réponses pour fausser la taille des paquets et rendre l’analyse des métadonnées moins précise.
  • Longueurs de réponse variables : Introduction de l’imprévisibilité dans la longueur des réponses générées pour perturber la reconnaissance des formes.
  • Protocoles de cryptage améliorés : Explorer des méthodes de communication plus sécurisées qui minimisent les fuites de métadonnées.

Pour les utilisateurs, la recommandation immédiate est la prudence. Évitez de discuter de sujets sensibles sur des réseaux non fiables et vérifiez si votre fournisseur LLM a mis en œuvre des mesures d’atténuation. L’utilisation d’un réseau privé virtuel (VPN) peut fournir une couche de protection supplémentaire en masquant votre identité et votre emplacement.

La faille Whisper Leak souligne la tension persistante entre l’innovation en matière d’IA et la sécurité. Même si les LLM offrent un potentiel incroyable, leurs vulnérabilités exposent les utilisateurs à des risques réels qui exigent une attention immédiate de la part des fournisseurs et des individus.