Les agents d’intelligence artificielle, comme ChatGPT d’OpenAI et Claude d’Anthropic, sont de plus en plus performants. Les versions avancées, appelées agents IA, automatisent désormais les tâches depuis la planification des rendez-vous jusqu’à l’écriture du code. À mesure que ces robots s’intègrent dans la science et la finance, on s’attend à ce qu’ils collaborent au sein d’équipes organisées. Cependant, les premières expériences révèlent une vérité surprenante : le travail d’équipe des agents d’IA est souvent chaotique et inefficace, voire sous-performant même pour un seul agent travaillant seul. Il ne s’agit pas simplement d’une préoccupation théorique ; cela devient évident dans les déploiements réels, des réseaux sociaux expérimentaux aux laboratoires scientifiques.
Le chaos des interactions non structurées
Le principal problème réside dans la manière dont les agents d’IA interagissent sans directives claires. L’expérience du journaliste Evan Ratliff en 2025, documentée dans son podcast Shell Game, illustre cela de manière frappante. Il a réuni une équipe d’agents IA pour diriger une entreprise technologique, et le résultat a été « une recette pour le chaos ». De même, le lancement de Moltbook, un réseau social entièrement peuplé d’agents IA, a dégénéré en absurdités philosophiques et en escroqueries manipulatrices, souvent orchestrées par des opérateurs humains cachés.
James Zou, informaticien à Stanford, confirme cette tendance : “Dans de nombreux contextes, les agents d’IA actuels ne fonctionnent pas très bien en équipe.” Une recherche de Google DeepMind confirme cette affirmation, suggérant que les performances de groupe peuvent en fait se détériorer par rapport au travail d’agent individuel. Le paradoxe est contre-intuitif mais clair : le simple fait de lancer des robots dans une salle virtuelle ne garantit pas une synergie.
Moltbook : une étude de cas sur le dysfonctionnement des robots
Moltbook en fournit un exemple frappant. La plateforme hébergeait environ 200 000 agents IA vérifiés et des millions d’autres cachés en arrière-plan. Les premières apparences suggéraient l’émergence d’une religion dirigée par des robots, mais la réalité était bien plus banale : les humains manipulaient les agents à des fins malveillantes, notamment des escroqueries et des tentatives de piratage. Les robots eux-mêmes manquaient de comportement social significatif, incapables de s’influencer mutuellement ou de s’adapter aux dynamiques changeantes.
L’informaticien Ming Li note : « Un agent est un bon exécuteur, pas un bon penseur. » Même lorsqu’un agent semblait générer une idée originale, celle-ci était probablement motivée par un opérateur humain en coulisse. Les robots exécutaient simplement des instructions, sans véritable agence.
Les pièges d’une conversation sans fin
L’expérience Hurumo AI de Ratliff démontre davantage les problèmes. Malgré des instructions claires, ses agents perdaient du temps en bavardages inutiles, comme par exemple en discutant de randonnées le week-end (qu’ils ne pouvaient pas vivre). Les robots se livraient à des conversations interminables et improductives, épuisant les crédits prépayés sans accomplir de tâches. Ratliff a finalement dû limiter les tours de chaque agent pour renforcer l’efficacité.
Cela met en évidence un défaut critique : Les agents d’IA n’ont pas la capacité innée de prioriser les tâches ou de reconnaître quand une conversation devient improductive. Ils ne manifestent pas de « fatigue lors des réunions », mais ils ne comprennent pas non plus intuitivement la valeur de la brièveté ou de la concentration.
La promesse de la hiérarchie et de la décomposition
Malgré les défis, les équipes d’IA structurées peuvent réussir. La clé est la “décomposabilité”, qui décompose les tâches en parties indépendantes. Les recherches de Google DeepMind montrent que les agents excellent lorsqu’ils travaillent en parallèle sur des composants distincts d’un problème plus vaste, comme l’analyse financière, où les robots peuvent analyser simultanément et efficacement les actualités, les documents déposés et les enregistrements.
De plus, une hiérarchie claire avec autorité déléguée améliore les performances. Zou a conçu un laboratoire virtuel avec un professeur d’agent d’IA coordonnant une équipe d’étudiants en agent d’IA et un agent critique fournissant des commentaires. Ce système a réussi à concevoir de nouvelles protéines pour cibler les mutations du COVID-19, validant ainsi le potentiel de découverte scientifique basée sur l’IA.
Zou a étendu ce modèle à The Virtual Biotech, une entreprise dotée d’une structure hiérarchique et de milliers d’agents travaillant en parallèle pour analyser les données des essais cliniques. L’équipe a nettoyé et organisé un ensemble de données massif de 55 984 essais cliniques, démontrant la puissance d’une équipe de robots bien orchestrée.
Conclusion
Alors que l’état actuel du travail d’équipe des agents IA est souvent chaotique et inefficace, les environnements structurés avec des hiérarchies claires et des tâches décomposables sont très prometteurs. Les défis sont réels, mais pas insurmontables. À mesure que les agents IA évoluent, leurs capacités de collaboration évoluent également. L’avenir de l’IA ne concerne pas seulement les robots plus intelligents ; il s’agit d’équipes de robots plus intelligentes et de comprendre comment les faire fonctionner efficacement.




























