Kerentanan kritis pada chatbot AI yang populer memungkinkan peretas mencegat pesan meskipun dienkripsi, sehingga meningkatkan kekhawatiran privasi yang serius. Peneliti keamanan siber di Microsoft telah menemukan sebuah metode, yang disebut “Whisper Leak,” yang mengeksploitasi metadata untuk menyimpulkan konten percakapan antara pengguna dan model bahasa besar (LLM). Ini berarti diskusi sensitif dapat dipantau tanpa secara langsung merusak enkripsi.
Cara Kerja Serangan
Serangan Whisper Leak adalah eksploitasi “man-in-the-middle” yang canggih. Alih-alih mendekripsi isi pesan sebenarnya, peretas mencegat dan menganalisis metadata yang terkait dengan komunikasi LLM. Metadata mencakup detail seperti ukuran dan waktu paket, yang jika dianalisis dengan benar, dapat mengungkapkan pola yang menyarankan topik pembicaraan.
Kuncinya adalah prediktabilitas. LLM menghasilkan respons berdasarkan perintah, sehingga menghasilkan panjang token dan waktu respons yang konsisten. Dengan mengamati pola-pola ini, peneliti dapat merekonstruksi kalimat yang masuk akal dari data terenkripsi tanpa harus melewati enkripsi itu sendiri. Teknik ini merupakan versi lebih baik dari metode pengawasan yang digunakan oleh pemerintah, seperti Investigatory Powers Act di Inggris, yang menyimpulkan konten dari metadata tanpa membaca pesan secara langsung.
Respon Industri: Campuran
Microsoft dan OpenAI, pengembang ChatGPT, diberitahu tentang kerentanan tersebut pada bulan Juni 2025 dan sejak itu telah mengambil langkah-langkah untuk menilai risiko dan menerapkan perbaikan. Namun, tidak semua penyedia LLM memberikan respons serupa. Beberapa menolak menerapkan patch, sementara yang lain tidak merespons sama sekali. Para peneliti sengaja menyembunyikan nama platform non-responsif untuk menghindari rasa malu publik, namun menegaskan bahwa kelemahan tersebut masih belum terselesaikan di beberapa layanan.
“LLM adalah tambang emas informasi,” kata analis keamanan siber Dave Lear. “Orang-orang memasukkan segalanya ke dalamnya, termasuk data medis ketika rumah sakit mulai menggunakannya. Tidak dapat dihindari bahwa seseorang akan menemukan cara untuk menyaring informasi tersebut.”
Mengapa Ini Penting
Kerentanan ini menyoroti kelemahan mendasar dalam cara penerapan LLM saat ini. Meskipun enkripsi end-to-end melindungi isi pesan, metadata tetap berpotensi bocor. Implikasinya sangat signifikan, terutama karena LLM semakin terintegrasi ke dalam bidang-bidang sensitif seperti layanan kesehatan, keuangan, dan hukum.
Pemerintah atau pelaku kejahatan dapat mengeksploitasi kelemahan ini untuk mengidentifikasi pengguna yang mendiskusikan topik tertentu—seperti pencucian uang atau perbedaan pendapat politik—meskipun komunikasinya dienkripsi. Hal ini melemahkan gagasan percakapan pribadi dengan asisten AI.
Mitigasi dan Perlindungan
Penyedia LLM dapat menerapkan beberapa tindakan pencegahan:
- Padding Acak: Menambahkan byte acak ke respons untuk mendistorsi ukuran paket dan membuat analisis metadata menjadi kurang akurat.
- Panjang Respons Variabel: Menghasilkan ketidakpastian dalam panjang respons yang dihasilkan untuk mengganggu pengenalan pola.
- Protokol Enkripsi yang Ditingkatkan: Menjelajahi metode komunikasi yang lebih aman yang meminimalkan kebocoran metadata.
Bagi pengguna, rekomendasi langsungnya adalah kehati-hatian. Hindari mendiskusikan topik sensitif di jaringan yang tidak tepercaya dan verifikasi apakah penyedia LLM Anda telah menerapkan mitigasi. Menggunakan Virtual Private Network (VPN) dapat memberikan lapisan perlindungan tambahan dengan mengaburkan identitas dan lokasi Anda.
Cacat Whisper Leak menggarisbawahi ketegangan yang sedang berlangsung antara inovasi AI dan keamanan. Meskipun LLM menawarkan potensi yang luar biasa, kerentanannya memaparkan pengguna pada risiko dunia nyata yang memerlukan perhatian segera baik dari penyedia maupun individu.
