Eine kritische Schwachstelle in beliebten KI-Chatbots ermöglicht es Hackern, Nachrichten trotz Verschlüsselung abzufangen, was zu ernsthaften Datenschutzbedenken führt. Cybersicherheitsforscher von Microsoft haben eine Methode namens „Whisper Leak“ entdeckt, die Metadaten ausnutzt, um auf den Inhalt von Gesprächen zwischen Benutzern und großen Sprachmodellen (LLMs) zu schließen. Dies bedeutet, dass vertrauliche Diskussionen überwacht werden könnten, ohne die Verschlüsselung direkt zu unterbrechen.
Wie der Angriff funktioniert
Der Whisper-Leak-Angriff ist ein raffinierter „Man-in-the-Middle“-Exploit. Anstatt den eigentlichen Nachrichteninhalt zu entschlüsseln, fangen Hacker die mit der LLM-Kommunikation verbundenen Metadaten ab und analysieren sie. Zu den Metadaten gehören Details wie Paketgröße und Timing, die bei richtiger Analyse Muster erkennen lassen können, die auf das Gesprächsthema schließen lassen.
Der Schlüssel liegt in der Vorhersagbarkeit. LLMs generieren Antworten basierend auf Eingabeaufforderungen, was zu konsistenten Tokenlängen und Antwortzeiten führt. Durch die Beobachtung dieser Muster konnten Forscher aus den verschlüsselten Daten plausible Sätze rekonstruieren, ohne jemals die Verschlüsselung selbst zu umgehen. Bei dieser Technik handelt es sich um eine verfeinerte Version von Überwachungsmethoden, die von Regierungen eingesetzt werden, wie beispielsweise dem Investigatory Powers Act des Vereinigten Königreichs, der Inhalte aus Metadaten ableitet, ohne Nachrichten direkt zu lesen.
Reaktion der Branche: Gemischt
Microsoft und OpenAI, der Entwickler von ChatGPT, wurden im Juni 2025 über die Schwachstelle informiert und haben seitdem Schritte unternommen, um das Risiko zu bewerten und Korrekturen umzusetzen. Allerdings haben nicht alle LLM-Anbieter ähnlich reagiert. Einige weigerten sich, Patches anzuwenden, während andere überhaupt nicht reagierten. Die Forscher haben die Namen nicht reagierender Plattformen absichtlich zurückgehalten, um eine öffentliche Beschämung zu vermeiden, bestätigten jedoch, dass der Fehler bei mehreren Diensten weiterhin nicht behoben wurde.
„LLMs sind eine Goldgrube an Informationen“, sagt Cybersicherheitsanalyst Dave Lear. „Die Leute haben alles in sie eingegeben, einschließlich medizinischer Daten, als Krankenhäuser begannen, sie zu nutzen. Es war unvermeidlich, dass jemand einen Weg finden würde, diese Informationen herauszufiltern.“
Warum das wichtig ist
Die Sicherheitslücke verdeutlicht eine grundlegende Schwäche in der Art und Weise, wie LLMs derzeit eingesetzt werden. Während die Ende-zu-Ende-Verschlüsselung den Inhalt von Nachrichten schützt, bleiben Metadaten ein potenzielles Leck. Die Auswirkungen sind erheblich, insbesondere da LLMs zunehmend in sensible Bereiche wie Gesundheitswesen, Finanzen und Rechtsdienstleistungen integriert werden.
Regierungen oder böswillige Akteure könnten diesen Fehler ausnutzen, um Benutzer zu identifizieren, die über bestimmte Themen diskutieren – wie Geldwäsche oder politische Meinungsverschiedenheiten –, selbst wenn die Kommunikation verschlüsselt ist. Dies untergräbt die Vorstellung von privaten Gesprächen mit KI-Assistenten.
Schadensbegrenzung und Schutz
LLM-Anbieter können mehrere Gegenmaßnahmen ergreifen:
- Zufälliges Auffüllen: Hinzufügen zufälliger Bytes zu Antworten, um Paketgrößen zu verzerren und die Metadatenanalyse weniger genau zu machen.
- Variable Antwortlängen: Einführung einer Unvorhersehbarkeit in der Länge generierter Antworten, um die Mustererkennung zu stören.
- Erweiterte Verschlüsselungsprotokolle: Erforschung sichererer Kommunikationsmethoden, die den Verlust von Metadaten minimieren.
Für Benutzer lautet die unmittelbare Empfehlung: Vorsicht. Vermeiden Sie die Diskussion sensibler Themen in nicht vertrauenswürdigen Netzwerken und überprüfen Sie, ob Ihr LLM-Anbieter Abhilfemaßnahmen implementiert hat. Die Verwendung eines virtuellen privaten Netzwerks (VPN) kann eine zusätzliche Schutzebene bieten, indem Ihre Identität und Ihr Standort verschleiert werden.
Der Whisper-Leak-Fehler unterstreicht die anhaltende Spannung zwischen KI-Innovation und Sicherheit. Während LLMs ein unglaubliches Potenzial bieten, setzen ihre Schwachstellen Benutzer realen Risiken aus, die sofortige Aufmerksamkeit sowohl von Anbietern als auch von Einzelpersonen erfordern.





























