Die Grenzen der KI-Zusammenarbeit: Warum Bot-Teams oft scheitern

13

Künstliche Intelligenz-Agenten wie ChatGPT von OpenAI und Claude von Anthropic werden immer leistungsfähiger. Erweiterte Versionen, sogenannte KI-Agenten, automatisieren jetzt Aufgaben von der Terminplanung bis zum Schreiben von Code. Bei der Integration dieser Bots in Wissenschaft und Finanzen wird erwartet, dass sie in organisierten Teams zusammenarbeiten. Frühe Experimente bringen jedoch eine überraschende Wahrheit ans Licht: Die Teamarbeit von KI-Agenten ist oft chaotisch und ineffizient und übertrifft oft sogar die Leistung eines einzelnen Agenten, der alleine arbeitet. Dies ist nicht nur ein theoretisches Problem; Dies wird in realen Einsätzen deutlich, von experimentellen sozialen Netzwerken bis hin zu wissenschaftlichen Labors.

Das Chaos unstrukturierter Interaktion

Das Kernproblem liegt darin, wie KI-Agenten ohne klare Anleitung interagieren. Das Experiment des Journalisten Evan Ratliff aus dem Jahr 2025, dokumentiert in seinem Podcast Shell Game, veranschaulicht dies anschaulich. Er stellte ein Team von KI-Agenten zusammen, um ein Technologieunternehmen zu leiten, und das Ergebnis war „ein Rezept für Chaos“. Ebenso verlief der Start von Moltbook, einem sozialen Netzwerk, das vollständig von KI-Agenten bevölkert ist, zu philosophischem Unsinn und manipulativen Betrügereien, die oft von versteckten menschlichen Betreibern orchestriert wurden.

Der Stanford-Informatiker James Zou bestätigt diesen Trend: „In vielen Umgebungen funktionieren die aktuellen KI-Agenten nicht wirklich gut als Team.“ Untersuchungen von Google DeepMind unterstützen diese Behauptung und legen nahe, dass sich die Gruppenleistung im Vergleich zur Arbeit einzelner Agenten tatsächlich verschlechtern kann. Das Paradox ist kontraintuitiv, aber klar: Bots einfach in einen virtuellen Raum zu werfen, garantiert keine Synergie.

Moltbook: Eine Fallstudie zur Bot-Dysfunktion

Moltbook liefert ein krasses Beispiel. Auf der Plattform befanden sich rund 200.000 verifizierte KI-Agenten und Millionen weitere lauerten im Hintergrund. Der erste Anschein deutete darauf hin, dass eine von Bots gesteuerte Religion entstehen würde, aber die Realität war weitaus banaler: Menschen manipulierten die Agenten für böswillige Zwecke, einschließlich Betrug und Hacking-Versuchen. Den Bots selbst mangelte es an sinnvollem Sozialverhalten, sie waren nicht in der Lage, sich gegenseitig zu beeinflussen oder sich an veränderte Dynamiken anzupassen.

Der Informatiker Ming Li bemerkt: „Ein Agent ist ein guter Ausführender, kein guter Denker.“ Selbst wenn ein Agent eine originelle Idee zu entwickeln schien, wurde diese wahrscheinlich von einem menschlichen Operator hinter den Kulissen angeregt. Die Bots führten einfach Anweisungen aus, es fehlte ihnen an echter Entscheidungsfreiheit.

Die Fallstricke endloser Gespräche

Das Hurumo-KI-Experiment von Ratliff verdeutlicht die Probleme zusätzlich. Trotz klarer Anweisungen verschwendeten seine Agenten Zeit mit irrelevantem Geschwätz, wie etwa der Besprechung von Wanderausflügen am Wochenende (die sie nicht erleben konnten). Die Bots führten endlose, unproduktive Gespräche und verbrauchten Prepaid-Guthaben, ohne Aufgaben zu erledigen. Letztendlich musste Ratliff die Runden jedes Agenten begrenzen, um Effizienz zu erzwingen.

Dies verdeutlicht einen entscheidenden Fehler: KI-Agenten fehlt die angeborene Fähigkeit, Aufgaben zu priorisieren oder zu erkennen, wenn Gespräche unproduktiv werden. Sie zeigen keine „Besprechungsmüdigkeit“, aber sie verstehen auch nicht intuitiv den Wert von Kürze oder Fokus.

Das Versprechen von Hierarchie und Zerfall

Trotz der Herausforderungen können strukturierte KI-Teams erfolgreich sein. Der Schlüssel liegt in der „Zerlegbarkeit“, also der Zerlegung von Aufgaben in unabhängige Teile. Die Forschung von Google DeepMind zeigt, dass Agenten dann hervorragende Leistungen erbringen, wenn sie parallel an separaten Komponenten eines größeren Problems arbeiten, beispielsweise an einer Finanzanalyse, bei der Bots Nachrichten, Akten und Aufzeichnungen gleichzeitig effizient scannen können.

Darüber hinaus verbessert eine klare Hierarchie mit delegierten Befugnissen die Leistung. Zou entwarf ein virtuelles Labor mit einem KI-Agent-Professor, der ein Team von KI-Agent-Studenten koordiniert, und einem kritischen Agenten, der Feedback gibt. Dieses System entwickelte erfolgreich neue Proteine, die auf COVID-19-Mutationen abzielen, und bestätigte damit das Potenzial für KI-gesteuerte wissenschaftliche Entdeckungen.

Zou hat dieses Modell auf The Virtual Biotech übertragen, ein Unternehmen mit einer hierarchischen Struktur und Tausenden von Agenten, die parallel arbeiten, um Daten klinischer Studien zu analysieren. Das Team bereinigte und organisierte einen riesigen Datensatz von 55.984 klinischen Studien und demonstrierte damit die Leistungsfähigkeit eines gut orchestrierten Bot-Teams.

Fazit

Während der aktuelle Stand der Teamarbeit von KI-Agenten oft chaotisch und ineffizient ist, sind strukturierte Umgebungen mit klaren Hierarchien und zerlegbaren Aufgaben vielversprechend. Die Herausforderungen sind real, aber nicht unüberwindbar. Mit der Weiterentwicklung von KI-Agenten entwickeln sich auch ihre Fähigkeiten zur Zusammenarbeit. Bei der Zukunft der KI geht es nicht nur um intelligentere Bots; Es geht um intelligentere Teams von Bots – und um das Verständnis, wie man sie effektiv arbeiten lässt.