Kunstmatige intelligentieagenten, zoals ChatGPT van OpenAI en Claude van Anthropic, worden steeds capabeler. Geavanceerde versies, bekend als AI-agents, automatiseren nu taken, van het plannen van afspraken tot het schrijven van code. Naarmate deze bots zich integreren in de wetenschap en financiën, is de verwachting dat ze zullen samenwerken in georganiseerde teams. Vroege experimenten onthullen echter een verrassende waarheid: Het teamwerk van AI-agenten is vaak chaotisch en inefficiënt, en presteert vaak slechter dan zelfs een enkele agent die alleen werkt. Dit is niet alleen een theoretische zorg; het wordt duidelijk in implementaties in de echte wereld, van experimentele sociale netwerken tot wetenschappelijke laboratoria.
De chaos van ongestructureerde interactie
Het kernprobleem ligt in de manier waarop AI-agenten met elkaar omgaan zonder duidelijke begeleiding. Het experiment van journalist Evan Ratliff uit 2025, gedocumenteerd in zijn podcast Shell Game, illustreert dit levendig. Hij verzamelde een team van AI-agenten om een technologiebedrijf te runnen, en het resultaat was ‘een recept voor chaos’. Op dezelfde manier veranderde de lancering van Moltbook, een sociaal netwerk dat volledig werd bevolkt door AI-agenten, in filosofische onzin en manipulatieve oplichting, vaak georkestreerd door verborgen menselijke operators.
Computerwetenschapper James Zou van Stanford bevestigt deze trend: “In veel omgevingen werken de huidige AI-agenten eigenlijk niet zo goed als team.” Onderzoek van Google DeepMind ondersteunt deze bewering en suggereert dat groepsprestaties zelfs verslechteren vergeleken met het werk van individuele agenten. De paradox is contra-intuïtief maar duidelijk: het simpelweg gooien van bots in een virtuele kamer garandeert geen synergie.
Moltbook: een casestudy over botdysfunctie
Moltbook geeft een treffend voorbeeld. Het platform bood onderdak aan ongeveer 200.000 geverifieerde AI-agenten en miljoenen anderen die op de achtergrond op de loer lagen. De eerste indruk suggereerde dat er een door bots aangedreven religie ontstond, maar de realiteit was veel alledaagser: mensen manipuleerden de agenten voor kwaadaardige doeleinden, waaronder oplichting en hackpogingen. De bots zelf ontbeerden betekenisvol sociaal gedrag, slaagden er niet in elkaar te beïnvloeden of zich aan te passen aan de veranderende dynamiek.
Computerwetenschapper Ming Li merkt op: “Een agent is een goede uitvoerder, geen goede denker.” Zelfs als een agent een origineel idee leek te genereren, werd dit waarschijnlijk ingegeven door een menselijke operator achter de schermen. De bots voerden eenvoudigweg instructies uit, zonder echte keuzevrijheid.
De valkuilen van eindeloze gesprekken
Het Hurumo AI-experiment van Ratliff demonstreert de problemen verder. Ondanks duidelijke instructies verspilden zijn agenten tijd aan irrelevante praatjes, zoals het bespreken van wandeltochten in het weekend (die ze niet konden meemaken). De bots voerden eindeloze, onproductieve gesprekken, waarbij ze voorafbetaalde tegoeden leegmaakten zonder taken uit te voeren. Ratliff moest uiteindelijk de beurten van elke agent beperken om de efficiëntie te forceren.
Dit benadrukt een kritieke fout: AI-agenten missen het aangeboren vermogen om taken te prioriteren of te herkennen wanneer een gesprek onproductief wordt. Ze vertonen geen ‘vergadermoeheid’, maar ze begrijpen ook niet intuïtief de waarde van beknoptheid of focus.
De belofte van hiërarchie en ontbinding
Ondanks de uitdagingen kunnen gestructureerde AI-teams slagen. De sleutel is decomposeerbaarheid, het opsplitsen van taken in onafhankelijke delen. Uit het onderzoek van Google DeepMind blijkt dat agenten uitblinken wanneer ze parallel aan afzonderlijke componenten van een groter probleem werken, zoals financiële analyse waarbij bots op efficiënte wijze nieuws, dossiers en documenten tegelijkertijd kunnen scannen.
Bovendien verbetert een duidelijke hiërarchie met gedelegeerde bevoegdheden de prestaties. Zou ontwierp een virtueel laboratorium met een AI-agentprofessor die een team van AI-agentstudenten coördineert en een kritische agent die feedback geeft. Dit systeem heeft met succes nieuwe eiwitten ontworpen om zich op COVID-19-mutaties te richten, waardoor het potentieel voor AI-gestuurde wetenschappelijke ontdekkingen wordt gevalideerd.
Zou heeft dit model opgeschaald naar The Virtual Biotech, een bedrijf met een hiërarchische structuur en duizenden agenten die parallel werken om gegevens uit klinische onderzoeken te analyseren. Het team heeft een enorme dataset van 55.984 klinische onderzoeken opgeschoond en georganiseerd, wat de kracht van een goed georkestreerd botteam aantoont.
Conclusie
Hoewel de huidige staat van teamwerk met AI-agenten vaak chaotisch en inefficiënt is, zijn gestructureerde omgevingen met duidelijke hiërarchieën en opsplitsbare taken veelbelovend. De uitdagingen zijn reëel, maar niet onoverkomelijk. Naarmate AI-agenten evolueren, zullen ook hun samenwerkingsvaardigheden evolueren. De toekomst van AI gaat niet alleen over slimmere bots; het gaat over slimmere teams bots, en begrijpen hoe je ze effectief kunt laten werken.




























