Уязвимость в Шифровании AI Чат-ботов Раскрывает Переписки Пользователей Хакеру

7

Критическая уязвимость в популярных AI чат-ботах позволяет хакерам перехватывать сообщения, несмотря на шифрование, что вызывает серьёзные опасения по поводу конфиденциальности. Исследователи в области кибербезопасности из Microsoft обнаружили метод, получивший название «Утечка Шепота», который использует метаданные для вывода содержания разговоров между пользователями и большими языковыми моделями (LLM). Это означает, что конфиденциальные обсуждения могут отслеживаться без прямого взлома шифрования.

Как Работает Атака

Атака «Утечка Шепота» представляет собой сложный эксплойт типа «человек посередине». Вместо расшифровки фактического содержания сообщения, хакеры перехватывают и анализируют метаданные, связанные с LLM-коммуникациями. Метаданные включают в себя такие детали, как размер пакета и время, которые при правильном анализе могут раскрыть закономерности, указывающие на тему разговора.

Ключ в предсказуемости. LLM генерируют ответы на основе запросов, что приводит к постоянной длине токенов и времени ответа. Наблюдая за этими закономерностями, исследователи смогли реконструировать правдоподобные предложения из зашифрованных данных, не обходя само шифрование. Эта техника является усовершенствованной версией методов наблюдения, используемых правительствами, таких как Закон о следственных полномочиях Великобритании, который выводит содержание из метаданных, не читая сообщения напрямую.

Реакция Отрасли: Смешанная

Microsoft и OpenAI, разработчик ChatGPT, были проинформированы об уязвимости в июне 2025 года и с тех пор приняли меры для оценки риска и реализации исправлений. Однако не все поставщики LLM отреагировали одинаково. Некоторые отказались применять исправления, в то время как другие вообще не ответили. Исследователи намеренно не стали раскрывать названия не реагирующих платформ, чтобы избежать публичного позора, но подтвердили, что дефект остаётся не устранённым на нескольких сервисах.

«LLM — это клондайк информации», — говорит аналитик по кибербезопасности Дэйв Лир. «Люди вкладывают в них всё, включая медицинские данные, поскольку больницы начинают их использовать. Неизбежно, что кто-то найдёт способ выкрасть эту информацию».

Почему Это Важно

Уязвимость подчёркивает фундаментальный недостаток в том, как LLM развёртываются в настоящее время. В то время как сквозное шифрование защищает содержимое сообщений, метаданные остаются потенциальной утечкой. Последствия значительны, особенно по мере того, как LLM всё больше интегрируются в такие конфиденциальные области, как здравоохранение, финансы и юридические услуги.

Правительства или злоумышленники могут использовать эту уязвимость для выявления пользователей, обсуждающих конкретные темы, например, отмывание денег или политический протест, даже если переписка зашифрована. Это подрывает саму идею частных разговоров с AI-ассистентами.

Смягчение Последствий и Защита

Поставщики LLM могут реализовать несколько мер противодействия:

  • Случайная Дополнительная Загрузка: Добавление случайных байтов в ответы для искажения размеров пакетов и снижения точности анализа метаданных.
  • Переменная Длина Ответов: Внесение непредсказуемости в длину генерируемых ответов для нарушения распознавания закономерностей.
  • Улучшенные Протоколы Шифрования: Изучение более безопасных методов связи, которые минимизируют утечку метаданных.

Для пользователей немедленной рекомендацией является осторожность. Избегайте обсуждения конфиденциальных тем в ненадежных сетях и убедитесь, что ваш поставщик LLM внедрил меры противодействия. Использование виртуальной частной сети (VPN) может обеспечить дополнительный уровень защиты, скрывая вашу личность и местоположение.

Уязвимость «Утечки Шепота» подчёркивает постоянное напряжение между инновациями в области AI и безопасностью. В то время как LLM предлагают невероятный потенциал, их уязвимости подвергают пользователей реальным рискам, требующим немедленного внимания как со стороны поставщиков, так и со стороны отдельных лиц.