Agen kecerdasan buatan, seperti ChatGPT dari OpenAI dan Claude dari Anthropic, menjadi semakin mampu. Versi lanjutan, yang dikenal sebagai agen AI, kini mengotomatiskan tugas mulai dari menjadwalkan janji temu hingga menulis kode. Ketika bot-bot ini berintegrasi ke dalam ilmu pengetahuan dan keuangan, diharapkan mereka akan berkolaborasi dalam tim yang terorganisir. Namun, eksperimen awal mengungkap kebenaran yang mengejutkan: Kerja tim agen AI sering kali kacau dan tidak efisien, dan sering kali kinerjanya buruk bahkan jika hanya ada satu agen yang bekerja sendirian. Hal ini bukan hanya masalah teoretis; hal ini menjadi jelas dalam penerapan di dunia nyata, mulai dari jaringan sosial eksperimental hingga laboratorium ilmiah.
Kekacauan Interaksi Tidak Terstruktur
Masalah intinya terletak pada cara agen AI berinteraksi tanpa panduan yang jelas. Eksperimen jurnalis Evan Ratliff pada tahun 2025, yang didokumentasikan dalam podcastnya Shell Game, menggambarkan hal ini dengan jelas. Dia membentuk tim agen AI untuk menjalankan perusahaan teknologi, dan hasilnya adalah “resep kekacauan”. Demikian pula dengan peluncuran Moltbook, jaringan sosial yang seluruhnya diisi oleh agen AI, berubah menjadi omong kosong filosofis dan penipuan manipulatif, yang sering kali diatur oleh operator manusia yang tersembunyi.
Ilmuwan komputer Stanford, James Zou, membenarkan tren ini: “Dalam banyak situasi, agen AI saat ini sebenarnya tidak bekerja dengan baik sebagai sebuah tim.” Penelitian dari Google DeepMind mendukung klaim ini, menunjukkan bahwa kinerja kelompok sebenarnya bisa memburuk dibandingkan dengan pekerjaan agen individu. Paradoksnya berlawanan dengan intuisi tetapi jelas: melemparkan bot ke ruang virtual tidak menjamin sinergi.
Moltbook: Studi Kasus Disfungsi Bot
Moltbook memberikan contoh nyata. Platform ini menampung sekitar 200.000 agen AI terverifikasi dan jutaan lainnya yang bersembunyi di belakang. Kemunculan awal menunjukkan munculnya agama yang didorong oleh bot, namun kenyataannya jauh lebih biasa: manusia memanipulasi agen untuk tujuan jahat, termasuk penipuan dan upaya peretasan. Bot-bot itu sendiri tidak mempunyai perilaku sosial yang berarti, gagal mempengaruhi satu sama lain atau beradaptasi terhadap dinamika yang berubah.
Ilmuwan komputer Ming Li mencatat, “Agen adalah pelaksana yang baik, bukan pemikir yang baik.” Bahkan ketika seorang agen tampaknya menghasilkan ide orisinal, kemungkinan besar ide tersebut dipicu oleh operator manusia di belakang layar. Bot hanya menjalankan instruksi, tidak memiliki agen yang asli.
Jebakan Percakapan Tanpa Akhir
Eksperimen Hurumo AI yang dilakukan Ratliff menunjukkan lebih lanjut permasalahan tersebut. Meskipun ada instruksi yang jelas, agennya membuang-buang waktu untuk obrolan yang tidak relevan, seperti mendiskusikan perjalanan hiking di akhir pekan (yang tidak dapat mereka alami). Bot terlibat dalam percakapan yang tidak ada habisnya dan tidak produktif, menghabiskan kredit prabayar tanpa menyelesaikan tugas. Ratliff pada akhirnya harus membatasi giliran setiap agen untuk memaksakan efisiensi.
Hal ini menyoroti kelemahan kritis: Agen AI tidak memiliki kemampuan bawaan untuk memprioritaskan tugas atau mengenali saat percakapan menjadi tidak produktif. Mereka tidak menunjukkan “kelelahan saat bertemu”, namun mereka juga tidak secara intuitif memahami nilai dari singkatnya atau fokus.
Janji Hirarki dan Dekomposisi
Terlepas dari tantangannya, tim AI terstruktur bisa berhasil. Kuncinya adalah “penguraian”, memecah tugas menjadi bagian-bagian yang independen. Penelitian Google DeepMind menunjukkan bahwa agen unggul ketika bekerja secara paralel pada komponen terpisah dari masalah yang lebih besar, seperti analisis keuangan dimana bot dapat secara efisien memindai berita, arsip, dan catatan secara bersamaan.
Selain itu, hierarki yang jelas dengan wewenang yang didelegasikan akan meningkatkan kinerja. Zou merancang laboratorium virtual dengan profesor agen AI yang mengoordinasikan tim mahasiswa agen AI dan agen penting yang memberikan masukan. Sistem ini berhasil merancang protein baru untuk menargetkan mutasi COVID-19, memvalidasi potensi penemuan ilmiah berbasis AI.
Zou telah mengembangkan model ini menjadi The Virtual Biotech, sebuah perusahaan dengan struktur hierarki dan ribuan agen yang bekerja secara paralel untuk menganalisis data uji klinis. Tim tersebut membersihkan dan mengatur kumpulan data besar-besaran yang terdiri dari 55.984 uji klinis, yang menunjukkan kekuatan tim bot yang diatur dengan baik.
Kesimpulan
Meskipun kondisi kerja tim agen AI saat ini sering kali kacau dan tidak efisien, lingkungan terstruktur dengan hierarki yang jelas dan tugas yang dapat didekomposisi memberikan harapan yang signifikan. Tantangannya nyata, namun bukannya tidak dapat diatasi. Seiring berkembangnya agen AI, kemampuan kolaboratif mereka juga akan berkembang. Masa depan AI bukan hanya tentang bot yang lebih cerdas; ini tentang tim bot yang lebih cerdas—dan memahami cara membuatnya bekerja secara efektif.




























