Gli agenti di intelligenza artificiale, come ChatGPT di OpenAI e Claude di Anthropic, stanno diventando sempre più capaci. Le versioni avanzate, note come agenti AI, ora automatizzano le attività dalla pianificazione degli appuntamenti alla scrittura del codice. Man mano che questi robot si integrano nella scienza e nella finanza, l’aspettativa è che collaborino in team organizzati. Tuttavia, i primi esperimenti rivelano una verità sorprendente: Il lavoro di squadra degli agenti di intelligenza artificiale è spesso caotico e inefficiente, e spesso sottoperforma anche un singolo agente che lavora da solo. Questa non è solo una preoccupazione teorica; sta diventando evidente nelle implementazioni nel mondo reale, dai social network sperimentali ai laboratori scientifici.
Il caos dell’interazione non strutturata
Il problema principale risiede nel modo in cui gli agenti IA interagiscono senza una guida chiara. L’esperimento del 2025 del giornalista Evan Ratliff, documentato nel suo podcast Shell Game, lo illustra vividamente. Ha riunito una squadra di agenti IA per gestire un’azienda tecnologica e il risultato è stato “una ricetta per il caos”. Allo stesso modo, il lancio di Moltbook, un social network popolato interamente da agenti di intelligenza artificiale, si è trasformato in sciocchezze filosofiche e truffe manipolative, spesso orchestrate da operatori umani nascosti.
James Zou, scienziato informatico di Stanford, conferma questa tendenza: “In molti contesti, gli attuali agenti di intelligenza artificiale in realtà non funzionano molto bene come squadra.” La ricerca di Google DeepMind supporta questa affermazione, suggerendo che le prestazioni di gruppo possono effettivamente peggiorare rispetto al lavoro dei singoli agenti. Il paradosso è controintuitivo ma chiaro: il semplice lancio dei bot in una stanza virtuale non garantisce la sinergia.
Moltbook: un caso di studio sulla disfunzione dei bot
Moltbook fornisce un chiaro esempio. La piattaforma ospitava circa 200.000 agenti IA verificati e altri milioni in agguato in background. Le prime apparenze suggerivano l’emergere di una religione guidata dai bot, ma la realtà era molto più banale: gli esseri umani manipolavano gli agenti per scopi dannosi, comprese truffe e tentativi di hacking. I robot stessi mancavano di comportamenti sociali significativi, non riuscendo a influenzarsi a vicenda o ad adattarsi alle mutevoli dinamiche.
L’informatico Ming Li osserva: “Un agente è un buon esecutore testamentario, non un buon pensatore”. Anche quando un agente sembrava generare un’idea originale, probabilmente veniva spinta da un operatore umano dietro le quinte. I robot eseguivano semplicemente le istruzioni, senza un’autentica agenzia.
Le insidie di una conversazione infinita
L’esperimento Hurumo AI di Ratliff dimostra ulteriormente i problemi. Nonostante le istruzioni chiare, i suoi agenti perdevano tempo in chiacchiere irrilevanti, come discutere di escursioni nel fine settimana (che non potevano sperimentare). I robot si sono impegnati in conversazioni infinite e improduttive, prosciugando crediti prepagati senza portare a termine i compiti. Alla fine Ratliff dovette limitare i turni di ciascun agente per forzare l’efficienza.
Ciò evidenzia un difetto critico: Gli agenti di intelligenza artificiale non hanno la capacità innata di dare priorità ai compiti o di riconoscere quando la conversazione diventa improduttiva. Non mostrano “affaticamento durante la riunione”, ma non comprendono nemmeno intuitivamente il valore della brevità o della concentrazione.
La promessa di gerarchia e decomposizione
Nonostante le sfide, i team strutturati di intelligenza artificiale possono avere successo. La chiave è la “scomponibilità”, la suddivisione dei compiti in parti indipendenti. La ricerca di Google DeepMind mostra che gli agenti eccellono quando lavorano in parallelo su componenti separati di un problema più ampio, come l’analisi finanziaria in cui i robot possono scansionare in modo efficiente notizie, archivi e documenti contemporaneamente.
Inoltre, una gerarchia chiara con autorità delegata migliora le prestazioni. Zou ha progettato un laboratorio virtuale con un professore di agenti di intelligenza artificiale che coordina un team di studenti di agenti di intelligenza artificiale e un agente critico che fornisce feedback. Questo sistema ha progettato con successo nuove proteine per colpire le mutazioni di COVID-19, convalidando il potenziale della scoperta scientifica guidata dall’intelligenza artificiale.
Zou ha adattato questo modello a The Virtual Biotech, un’azienda con una struttura gerarchica e migliaia di agenti che lavorano in parallelo per analizzare i dati degli studi clinici. Il team ha ripulito e organizzato un enorme set di dati di 55.984 studi clinici, dimostrando la potenza di un team di bot ben orchestrato.
Conclusione
Sebbene lo stato attuale del lavoro di squadra degli agenti IA sia spesso caotico e inefficiente, ambienti strutturati con gerarchie chiare e compiti scomponibili sono molto promettenti. Le sfide sono reali, ma non insormontabili. Man mano che gli agenti IA si evolvono, aumenteranno anche le loro capacità di collaborazione. Il futuro dell’intelligenza artificiale non riguarda solo robot più intelligenti; si tratta di team di bot più intelligenti e di capire come farli funzionare in modo efficace.




























