Искусственный интеллект, такой как ChatGPT от OpenAI и Claude от Anthropic, становится всё более мощным. Продвинутые версии, известные как AI-агенты, теперь автоматизируют задачи, начиная от планирования встреч и заканчивая написанием кода. По мере интеграции этих ботов в науку и финансы возникает ожидание, что они будут сотрудничать в организованных командах. Однако ранние эксперименты выявляют удивительную правду: командная работа AI-агентов часто хаотична и неэффективна, регулярно уступая даже одиночному агенту, работающему самостоятельно. Это не просто теоретическая проблема; она становится очевидной в реальных условиях, от экспериментальных социальных сетей до научных лабораторий.
Хаос неструктурированного взаимодействия
Основная проблема заключается в том, как AI-агенты взаимодействуют без чётких указаний. Журналист Эван Рэтлифф в своём эксперименте 2025 года, задокументированном в его подкасте Shell Game, наглядно это иллюстрирует. Он собрал команду AI-агентов для управления технологической компанией, и результат оказался «рецептом хаоса». Подобным образом запуск Moltbook, социальной сети, населённой исключительно AI-агентами, выродился в философский нонсенс и манипулятивные мошенничества, часто организованные скрытыми операторами-людьми.
Компьютерный учёный Стэнфордского университета Джеймс Джоу подтверждает эту тенденцию: «Во многих случаях текущие AI-агенты не очень хорошо работают в команде.» Исследования Google DeepMind поддерживают это утверждение, предполагая, что групповая производительность может фактически ухудшаться по сравнению с работой отдельных агентов. Этот парадокс противоречит интуиции, но он очевиден: простое помещение ботов в виртуальную комнату не гарантирует синергии.
Moltbook: Наглядный пример дисфункции ботов
Moltbook предоставляет яркий пример. Платформа размещала около 200 000 верифицированных AI-агентов и миллионы других, скрывающихся в тени. Первоначальные впечатления указывали на зарождающуюся религию, управляемую ботами, но реальность была куда прозаичнее: люди манипулировали агентами в злонамеренных целях, включая мошенничество и попытки взлома. Сами боты лишены значимого социального поведения, не влияя друг на друга или адаптируясь к меняющейся динамике.
Компьютерный учёный Мин Ли отмечает: «Агент — хороший исполнитель, но плохой мыслитель». Даже когда агент, казалось, генерировал оригинальную идею, скорее всего, это было вызвано вмешательством оператора-человека за кулисами. Боты просто выполняли инструкции, не обладая настоящей автономией.
Ловушки бесконечных разговоров
Эксперимент Hurumo AI Рэтлиффа ещё больше подчёркивает проблемы. Несмотря на чёткие указания, его агенты тратили время на нерелевантную болтовню, например, обсуждение походов на выходные (которые они не могли испытать). Боты вступали в бесконечные, непродуктивные разговоры, расходуя предоплаченные кредиты, не выполняя задач. Рэтлиффу в конечном итоге пришлось ограничить количество ходов каждого агента, чтобы повысить эффективность.
Это подчёркивает критический недостаток: AI-агенты не обладают врождённой способностью расставлять приоритеты или понимать, когда разговор становится бесполезным. Они не чувствуют «усталости от встреч», но также не интуитивно понимают ценность краткости или концентрации.
Перспективы иерархии и декомпозиции
Несмотря на трудности, структурированные AI-команды могут добиться успеха. Ключ в «декомпозиции» — разбиении задач на независимые части. Исследования Google DeepMind показывают, что агенты преуспевают, работая параллельно над отдельными компонентами более крупной проблемы, например, в финансовом анализе, где боты могут эффективно сканировать новости, отчёты и записи одновременно.
Кроме того, чёткая иерархия с делегированием полномочий повышает производительность. Джоу разработал виртуальную лабораторию, в которой AI-агент-профессор координировал команду AI-агентов-студентов и критический агент предоставлял обратную связь. Эта система успешно разработала новые белки для таргетирования мутаций COVID-19, подтвердив потенциал AI-управляемых научных открытий.
Джоу масштабировал эту модель в The Virtual Biotech, компанию с иерархической структурой и тысячами агентов, работающих параллельно для анализа данных клинических испытаний. Команда очистила и упорядочила массивный набор данных из 55 984 клинических испытаний, продемонстрировав силу хорошо организованной команды ботов.
Заключение
Хотя текущее состояние командной работы AI-агентов часто хаотично и неэффективно, структурированные среды с чёткой иерархией и декомпозируемыми задачами имеют значительный потенциал. Проблемы реальны, но не непреодолимы. По мере эволюции AI-агентов, будут развиваться и их возможности сотрудничества. Будущее AI — это не только более умные боты, но и более умные команды ботов — и понимание того, как заставить их работать эффективно.





























