Una vulnerabilità critica nei popolari chatbot IA consente agli hacker di intercettare i messaggi nonostante la crittografia, sollevando seri problemi di privacy. I ricercatori di sicurezza informatica di Microsoft hanno scoperto un metodo, soprannominato “Whisper Leak”, che sfrutta i metadati per dedurre il contenuto delle conversazioni tra utenti e modelli linguistici di grandi dimensioni (LLM). Ciò significa che le discussioni sensibili potrebbero essere monitorate senza violare direttamente la crittografia.
Come funziona l’attacco
L’attacco Whisper Leak è un sofisticato exploit “man-in-the-middle”. Invece di decrittografare il contenuto effettivo del messaggio, gli hacker intercettano e analizzano i metadati associati alle comunicazioni LLM. I metadati includono dettagli come dimensioni e tempistica dei pacchetti che, se analizzati correttamente, possono rivelare modelli che suggeriscono l’argomento della conversazione.
La chiave è la prevedibilità. Gli LLM generano risposte basate su prompt, con conseguenti lunghezze di token e tempi di risposta coerenti. Osservando questi modelli, i ricercatori sono stati in grado di ricostruire frasi plausibili dai dati crittografati senza mai aggirare la crittografia stessa. Questa tecnica è una versione raffinata dei metodi di sorveglianza utilizzati dai governi, come l’Investigatory Powers Act del Regno Unito, che deduce il contenuto dai metadati senza leggere direttamente i messaggi.
Risposta del settore: un miscuglio
Microsoft e OpenAI, lo sviluppatore di ChatGPT, sono stati informati della vulnerabilità nel giugno 2025 e da allora hanno adottato misure per valutare il rischio e implementare soluzioni. Tuttavia, non tutti i fornitori LLM hanno risposto in modo simile. Alcuni hanno rifiutato di applicare le patch, mentre altri non hanno risposto affatto. I ricercatori hanno intenzionalmente nascosto i nomi delle piattaforme non reattive per evitare vergogna pubblica, ma hanno confermato che il difetto rimane irrisolto su diversi servizi.
“I LLM sono una miniera d’oro di informazioni”, afferma l’analista di sicurezza informatica Dave Lear. “Le persone ci inseriscono di tutto, compresi i dati medici man mano che gli ospedali iniziano a usarli. Era inevitabile che qualcuno trovasse un modo per estrarre quelle informazioni.”
Perché è importante
La vulnerabilità evidenzia una debolezza fondamentale nel modo in cui gli LLM vengono attualmente distribuiti. Sebbene la crittografia end-to-end protegga il contenuto dei messaggi, i metadati rimangono una potenziale perdita. Le implicazioni sono significative, soprattutto perché gli LLM diventano sempre più integrati in aree sensibili come l’assistenza sanitaria, la finanza e i servizi legali.
I governi o gli attori malintenzionati potrebbero sfruttare questa falla per identificare gli utenti che discutono argomenti specifici, come il riciclaggio di denaro o il dissenso politico, anche se le comunicazioni sono crittografate. Ciò mina la nozione stessa di conversazioni private con gli assistenti IA.
Mitigazione e protezione
I fornitori LLM possono implementare diverse contromisure:
- Padding casuale: aggiunta di byte casuali alle risposte per distorcere le dimensioni dei pacchetti e rendere meno accurata l’analisi dei metadati.
- Lunghezze di risposta variabili: Introduzione dell’imprevedibilità nella lunghezza delle risposte generate per interrompere il riconoscimento dei modelli.
- Protocolli di crittografia avanzati: Esplorazione di metodi di comunicazione più sicuri che riducano al minimo la perdita di metadati.
Per gli utenti, la raccomandazione immediata è cautela. Evita di discutere argomenti delicati su reti non attendibili e verifica se il tuo provider LLM ha implementato misure di mitigazione. L’utilizzo di una rete privata virtuale (VPN) può fornire un ulteriore livello di protezione offuscando la tua identità e posizione.
Il difetto Whisper Leak sottolinea la continua tensione tra innovazione dell’intelligenza artificiale e sicurezza. Sebbene i LLM offrano un potenziale incredibile, le loro vulnerabilità espongono gli utenti a rischi reali che richiedono attenzione immediata sia da parte dei fornitori che dei singoli individui.





























