Luka w szyfrowaniu chatbotów AI ujawnia korespondencję użytkownika z hakerem

20

Krytyczna luka w popularnych chatbotach AI umożliwia hakerom przechwytywanie wiadomości pomimo szyfrowania, co budzi poważne obawy dotyczące prywatności. Badacze cyberbezpieczeństwa w firmie Microsoft odkryli technikę zwaną „Whisper Leak”, która wykorzystuje metadane do wnioskowania o treści rozmów między użytkownikami i dużymi modelami językowymi (LLM). Oznacza to, że poufne dyskusje można monitorować bez bezpośredniego łamania szyfrowania.

Jak działa atak

Atak Whisper Leak to wyrafinowany exploit typu man-in-the-middle. Zamiast odszyfrować rzeczywistą treść wiadomości, hakerzy przechwytują i analizują metadane powiązane z komunikacją LLM. Metadane obejmują szczegóły, takie jak rozmiar pakietu i czas, które, jeśli zostaną właściwie przeanalizowane, mogą ujawnić wzorce wskazujące temat rozmowy.

Przewidywalność jest kluczem. LLM generują odpowiedzi na podstawie żądań, co skutkuje stałą długością tokenów i czasem odpowiedzi. Obserwując te wzorce, badacze byli w stanie zrekonstruować wiarygodne zdania z zaszyfrowanych danych bez omijania samego szyfrowania. Technika ta jest zaawansowaną wersją technik nadzoru stosowanych przez rządy, takich jak brytyjska ustawa o uprawnieniach dochodzeniowych, która wnioskuje treść na podstawie metadanych bez bezpośredniego czytania wiadomości.

Reakcja branży: mieszana

Microsoft i OpenAI, twórca ChatGPT, zostali poinformowani o luce w czerwcu 2025 roku i od tego czasu podjęli kroki w celu oceny ryzyka i wdrożenia poprawek. Jednakże nie wszyscy dostawcy LLM odpowiedzieli w ten sam sposób. Niektórzy odmówili zastosowania poprawek, a inni w ogóle nie odpowiedzieli. Badacze celowo nie ujawnili nazw platform, które nie odpowiadają, aby uniknąć publicznego zawstydzenia, ale potwierdzili, że w przypadku kilku usług usterka pozostaje nierozwiązana.

„LLM to kopalnia informacji” – mówi analityk cyberbezpieczeństwa Dave Lear. “Ludzie wkładają w nie wszystko, łącznie z danymi medycznymi, gdy szpitale zaczynają z nich korzystać. Nieuniknione jest, że ktoś znajdzie sposób na kradzież tych informacji.”

Dlaczego to jest ważne

Luka uwypukla fundamentalną wadę obecnego sposobu wdrażania LLM. Chociaż kompleksowe szyfrowanie chroni treść wiadomości, metadane pozostają potencjalnym wyciekiem. Konsekwencje są znaczące, zwłaszcza że LLM są coraz bardziej zintegrowane z wrażliwymi obszarami, takimi jak opieka zdrowotna, finanse i usługi prawne.

Rządy lub osoby atakujące mogą wykorzystać tę lukę do identyfikacji użytkowników omawiających określone tematy, takie jak pranie pieniędzy czy protesty polityczne, nawet jeśli rozmowa jest szyfrowana. Podważa to samą ideę prywatnych rozmów z asystentami AI.

Łagodzenie i ochrona

Dostawcy LLM mogą wdrożyć kilka środków zaradczych:

  • Losowe dodatkowe ładowanie: Dodaje losowe bajty do odpowiedzi, aby zniekształcić rozmiary pakietów i zmniejszyć dokładność analizowania metadanych.
  • Zmienna długość odpowiedzi: Wprowadza nieprzewidywalność długości generowanych odpowiedzi, aby zakłócić rozpoznawanie wzorców.
  • Ulepszone protokoły szyfrowania: Poznaj bezpieczniejsze metody komunikacji, które minimalizują wyciek metadanych.

Użytkownicy zalecają natychmiastową ostrożność. Unikaj omawiania drażliwych tematów w niezaufanych sieciach i upewnij się, że Twój dostawca LLM wdrożył środki zaradcze. Korzystanie z wirtualnej sieci prywatnej (VPN) może zapewnić dodatkową warstwę bezpieczeństwa, ukrywając Twoją tożsamość i lokalizację.

Luka Whisper Leak podkreśla ciągłe napięcie między innowacjami AI a bezpieczeństwem. Chociaż LLM oferują niesamowity potencjał, ich luki narażają użytkowników na realne ryzyko, które wymaga natychmiastowej uwagi zarówno ze strony dostawców, jak i osób prywatnych.