Os limites da colaboração com IA: por que as equipes de bots frequentemente falham

5

Agentes de inteligência artificial, como ChatGPT da OpenAI e Claude da Anthropic, estão se tornando cada vez mais capazes. Versões avançadas, conhecidas como agentes de IA, agora automatizam tarefas desde o agendamento de compromissos até a escrita de código. À medida que esses bots se integram à ciência e às finanças, a expectativa é que colaborem em equipes organizadas. No entanto, os primeiros experimentos revelam uma verdade surpreendente: O trabalho em equipe dos agentes de IA é muitas vezes caótico e ineficiente, frequentemente apresentando desempenho inferior até mesmo para um único agente trabalhando sozinho. Esta não é apenas uma preocupação teórica; está se tornando evidente em implantações no mundo real, desde redes sociais experimentais até laboratórios científicos.

O caos da interação não estruturada

O principal problema reside na forma como os agentes de IA interagem sem uma orientação clara. A experiência de 2025 do jornalista Evan Ratliff, documentada no seu podcast Shell Game, ilustra isto vividamente. Ele montou uma equipe de agentes de IA para administrar uma empresa de tecnologia e o resultado foi “uma receita para o caos”. Da mesma forma, o lançamento do Moltbook, uma rede social povoada inteiramente por agentes de IA, transformou-se em disparates filosóficos e fraudes manipulativas, muitas vezes orquestradas por operadores humanos ocultos.

O cientista da computação de Stanford, James Zou, confirma essa tendência: “Em muitos ambientes, os atuais agentes de IA não funcionam muito bem em equipe.” Uma pesquisa do Google DeepMind apoia essa afirmação, sugerindo que o desempenho do grupo pode realmente piorar em comparação com o trabalho de um agente individual. O paradoxo é contra-intuitivo, mas claro: simplesmente lançar bots numa sala virtual não garante sinergia.

Moltbook: um estudo de caso sobre disfunção de bot

Moltbook fornece um exemplo claro. A plataforma hospedou cerca de 200.000 agentes de IA verificados e outros milhões espreitando em segundo plano. As aparências iniciais sugeriam o surgimento de uma religião impulsionada por bots, mas a realidade era muito mais mundana: os humanos manipulavam os agentes para fins maliciosos, incluindo golpes e tentativas de hacking. Os próprios bots careciam de comportamento social significativo, não conseguindo influenciar uns aos outros ou se adaptar às mudanças na dinâmica.

O cientista da computação Ming Li observa: “Um agente é um bom executor, não um bom pensador”. Mesmo quando um agente parecia gerar uma ideia original, ela provavelmente foi motivada por um operador humano nos bastidores. Os bots simplesmente executaram instruções, sem agência genuína.

As armadilhas da conversa sem fim

O experimento Hurumo AI de Ratliff demonstra ainda mais os problemas. Apesar das instruções claras, seus agentes perderam tempo com bate-papos irrelevantes, como discutir caminhadas nos finais de semana (que eles não podiam vivenciar). Os bots se envolveram em conversas intermináveis ​​e improdutivas, esgotando créditos pré-pagos sem realizar tarefas. Em última análise, Ratliff teve que limitar os turnos de cada agente para forçar a eficiência.

Isso destaca uma falha crítica: Os agentes de IA não têm a capacidade inata de priorizar tarefas ou reconhecer quando a conversa se torna improdutiva. Eles não demonstram “fadiga de reunião”, mas também não entendem intuitivamente o valor da brevidade ou do foco.

A promessa de hierarquia e decomposição

Apesar dos desafios, as equipes estruturadas de IA podem ter sucesso. A chave é a “decomponibilidade”, dividir as tarefas em partes independentes. A pesquisa do Google DeepMind mostra que os agentes se destacam quando trabalham em paralelo em componentes separados de um problema maior, como análise financeira, onde os bots podem verificar com eficiência notícias, arquivos e registros simultaneamente.

Além disso, uma hierarquia clara com autoridade delegada melhora o desempenho. Zou projetou um laboratório virtual com um professor agente de IA coordenando uma equipe de estudantes agentes de IA e um agente crítico fornecendo feedback. Este sistema projetou com sucesso novas proteínas para atingir as mutações do COVID-19, validando o potencial para descobertas científicas baseadas em IA.

Zou escalou esse modelo para a The Virtual Biotech, uma empresa com uma estrutura hierárquica e milhares de agentes trabalhando em paralelo para analisar dados de ensaios clínicos. A equipe limpou e organizou um enorme conjunto de dados de 55.984 ensaios clínicos, demonstrando o poder de uma equipe de bots bem orquestrada.

Conclusão

Embora o estado atual do trabalho em equipe dos agentes de IA seja muitas vezes caótico e ineficiente, ambientes estruturados com hierarquias claras e tarefas decomponíveis são promissores. Os desafios são reais, mas não intransponíveis. À medida que os agentes de IA evoluem, também evoluem as suas capacidades colaborativas. O futuro da IA ​​não envolve apenas bots mais inteligentes; trata-se de equipes de bots mais inteligentes — e de entender como fazê-los funcionar de maneira eficaz.