Штучний інтелект, такий як ChatGPT від OpenAI та Claude від Anthropic, стає дедалі потужнішим. Просунуті версії, відомі як AI-агенти, тепер автоматизують завдання, починаючи від планування зустрічей і до написання коду. У міру інтеграції цих ботів у науку та фінанси виникає очікування, що вони співпрацюватимуть в організованих командах. Проте ранні експерименти виявляють дивовижну правду: командна робота AI-агентів часто хаотична і неефективна, регулярно поступаючись навіть одиночному агенту, що працює самостійно. Це не просто теоретична проблема; вона стає очевидною у реальних умовах, від експериментальних соціальних мереж до наукових лабораторій.
Хаос неструктурованої взаємодії
Основна проблема полягає в тому, як AI-агенти взаємодіють без чітких вказівок. Журналіст Еван Ретліфф у своєму експерименті 2025 року, задокументованому в його подкасті Shell Game, наочно це ілюструє. Він зібрав команду AI-агентів для управління технологічною компанією і результат виявився “рецептом хаосу”. Подібним чином запуск Moltbook, соціальної мережі, населеної виключно AI-агентами, виродився у філософський нонсенс та маніпулятивні шахрайства, часто організовані прихованими операторами-людьми.
Комп’ютерний вчений Стенфордського університету Джеймс Джоу підтверджує цю тенденцію: ** “У багатьох випадках поточні AI-агенти не дуже добре працюють в команді.” Цей феномен суперечить інтуїції, але він очевидний: звичайне приміщення роботів у віртуальну кімнату не гарантує синергії.
Moltbook: Наочний приклад дисфункції ботів
Moltbook надає яскравий приклад. Платформа розміщувала близько 200 000 верифікованих AI-агентів та мільйони інших, що ховаються в тіні. Початкові враження вказували на релігію, що зароджується, керовану ботами, але реальність була куди прозаїчніше: люди маніпулювали агентами в зловмисних цілях, включаючи шахрайство і спроби злому. Самі роботи позбавлені значної соціальної поведінки, не впливаючи один на одного або адаптуючись до мінливої динаміки.
Комп’ютерний вчений Мін Лі зазначає: “Агент – добрий виконавець, але поганий мислитель”. Навіть коли агент, здавалося, генерував оригінальну ідею, швидше за все, це було викликано втручанням оператора-людини за лаштунками. Боти просто виконували інструкції, не маючи справжньої автономії.
Пастки нескінченних розмов
Експеримент Hurumo AI Ретліфф ще більше підкреслює проблеми. Незважаючи на чіткі вказівки, його агенти витрачали час на нерелевантну балаканину, наприклад, обговорення походів на вихідні (які вони не могли випробувати). Боти вступали у нескінченні, непродуктивні розмови, витрачаючи передплачені кредити, не виконуючи завдань. Ретліфф зрештою довелося обмежити кількість ходів кожного агента, щоб підвищити ефективність.
Це підкреслює критичний недолік: AI-агенти не мають вроджену здатність розставляти пріоритети або розуміти, коли розмова стає марною. Вони не відчувають “втоми від зустрічей”, але також не інтуїтивно розуміють цінність стислості або концентрації.
Перспективи ієрархії та декомпозиції
Незважаючи на труднощі, структуровані AI-команди можуть домогтися успіху. Ключ у “декомпозиції” – розбиття завдань на незалежні частини. Дослідження Google DeepMind показують, що агенти процвітають, працюючи паралельно над окремими компонентами більшої проблеми, наприклад, у фінансовому аналізі, де боти можуть ефективно сканувати новини, звіти та записи одночасно.
Крім того, чітка ієрархія з делегуванням повноважень підвищує продуктивність. Джоу розробив віртуальну лабораторію, в якій AI-агент-професор координував команду AI-агентів-студентів та критичний агент надавав зворотний зв’язок. Ця система успішно розробила нові білки для таргетування мутацій COVID-19, підтвердивши потенціал AI-керованих наукових відкриттів.
Джоу масштабував цю модель у The Virtual Biotech, компанію з ієрархічною структурою та тисячами агентів, які працюють паралельно для аналізу даних клінічних випробувань. Команда очистила та впорядкувала масивний набір даних із 55 984 клінічних випробувань, продемонструвавши силу добре організованої команди ботів.
Висновок
Хоча поточний стан командної роботи AI-агентів часто хаотичний і неефективний, структуровані середовища з чіткою ієрархією та завданнями, що декомпозуються, мають значний потенціал. Проблеми реальні, але не непереборні. У міру еволюції AI-агентів розвиватимуться і їх можливості співробітництва. Майбутнє AI – це не тільки розумніші боти, але й розумніші * команди * ботів – і розуміння того, як змусити їх працювати ефективно.





























