La falla de cifrado del chatbot AI expone las conversaciones de los usuarios a los piratas informáticos

10

Una vulnerabilidad crítica en los populares chatbots de IA permite a los piratas informáticos interceptar mensajes a pesar del cifrado, lo que genera serias preocupaciones sobre la privacidad. Investigadores de ciberseguridad de Microsoft han descubierto un método, denominado “Whisper Leak”, que explota los metadatos para inferir el contenido de las conversaciones entre usuarios y grandes modelos de lenguaje (LLM). Esto significa que las discusiones sensibles podrían monitorearse sin romper directamente el cifrado.

Cómo funciona el ataque

El ataque Whisper Leak es un sofisticado exploit de “intermediario”. En lugar de descifrar el contenido real del mensaje, los piratas informáticos interceptan y analizan los metadatos asociados con las comunicaciones de LLM. Los metadatos incluyen detalles como el tamaño del paquete y el tiempo que, cuando se analizan correctamente, pueden revelar patrones que sugieren el tema de la conversación.

La clave es la previsibilidad. Los LLM generan respuestas basadas en indicaciones, lo que da como resultado longitudes de token y tiempos de respuesta consistentes. Al observar estos patrones, los investigadores pudieron reconstruir oraciones plausibles a partir de los datos cifrados sin pasar por alto el cifrado en sí. Esta técnica es una versión refinada de los métodos de vigilancia utilizados por los gobiernos, como la Ley de Poderes de Investigación del Reino Unido, que infiere el contenido a partir de metadatos sin leer directamente los mensajes.

Respuesta de la industria: una mezcla de cosas

Microsoft y OpenAI, el desarrollador de ChatGPT, fueron informados de la vulnerabilidad en junio de 2025 y desde entonces han tomado medidas para evaluar el riesgo e implementar soluciones. Sin embargo, no todos los proveedores de LLM han respondido de manera similar. Algunos se negaron a aplicar parches, mientras que otros no respondieron en absoluto. Los investigadores ocultaron intencionalmente los nombres de las plataformas que no responden para evitar la vergüenza pública, pero confirmaron que la falla sigue sin abordarse en varios servicios.

“Los LLM son una mina de oro de información”, afirma el analista de ciberseguridad Dave Lear. “La gente puso todo en ellos, incluidos datos médicos a medida que los hospitales comenzaron a utilizarlos. Era inevitable que alguien encontrara una manera de extraer esa información”.

Por qué esto es importante

La vulnerabilidad pone de relieve una debilidad fundamental en la forma en que se implementan actualmente los LLM. Si bien el cifrado de extremo a extremo protege el contenido de los mensajes, los metadatos siguen siendo una fuga potencial. Las implicaciones son significativas, especialmente a medida que los LLM se integran cada vez más en áreas sensibles como la atención médica, las finanzas y los servicios legales.

Los gobiernos o actores malintencionados podrían aprovechar esta falla para identificar a los usuarios que discuten temas específicos, como el lavado de dinero o la disidencia política, incluso si las comunicaciones están cifradas. Esto socava la noción misma de conversaciones privadas con asistentes de IA.

Mitigación y Protección

Los proveedores de LLM pueden implementar varias contramedidas:

  • Relleno aleatorio: Agregar bytes aleatorios a las respuestas para distorsionar el tamaño de los paquetes y hacer que el análisis de metadatos sea menos preciso.
  • Duración de respuesta variable: Introducir la imprevisibilidad en la duración de las respuestas generadas para interrumpir el reconocimiento de patrones.
  • Protocolos de cifrado mejorados: Explorar métodos de comunicación más seguros que minimicen la fuga de metadatos.

Para los usuarios, la recomendación inmediata es precaución. Evite discutir temas delicados en redes que no sean de confianza y verifique si su proveedor de LLM ha implementado mitigaciones. El uso de una red privada virtual (VPN) puede proporcionar una capa adicional de protección al ocultar su identidad y ubicación.

La falla de Whisper Leak subraya la tensión actual entre la innovación en IA y la seguridad. Si bien los LLM ofrecen un potencial increíble, sus vulnerabilidades exponen a los usuarios a riesgos del mundo real que exigen atención inmediata tanto de los proveedores como de los individuos.