Sztuczna inteligencja, taka jak ChatGPT firmy OpenAI i Claude firmy Anthropic, staje się coraz potężniejsza. Zaawansowane wersje, znane jako agenci AI, automatyzują teraz zadania, od planowania spotkań po pisanie kodu. Ponieważ boty te są zintegrowane ze środowiskiem naukowym i finansowym, oczekuje się, że będą współpracować w zorganizowanych zespołach. Jednak wczesne eksperymenty ujawniają zaskakującą prawdę: praca zespołowa agentów AI jest często chaotyczna i nieefektywna, regularnie przewyższając nawet pojedynczego agenta pracującego samodzielnie. To nie jest tylko problem teoretyczny; staje się to oczywiste w rzeczywistych warunkach, od eksperymentalnych sieci społecznościowych po laboratoria naukowe.
Chaos nieustrukturyzowanych interakcji
Głównym problemem jest interakcja agentów AI bez jasnych instrukcji. Eksperyment dziennikarza Evana Ratliffa z 2025 r., udokumentowany w jego podcaście Shell Game, wyraźnie to ilustruje. Zebrał zespół agentów AI, aby zarządzać firmą technologiczną, a w rezultacie powstał „przepis na chaos”. Podobnie uruchomienie Moltbook, sieci społecznościowej zamieszkałej wyłącznie przez agentów AI, przerodziło się w filozoficzny nonsens i manipulacyjne oszustwa, często organizowane przez ukrytych ludzkich operatorów.
Informatyk z Uniwersytetu Stanforda, James Jow, potwierdza tę tendencję: „W wielu przypadkach obecni agenci sztucznej inteligencji nie działają zbyt dobrze w zespołach”. Badania przeprowadzone przez Google DeepMind potwierdzają to twierdzenie, sugerując, że wydajność grupy może w rzeczywistości pogorszyć się w porównaniu z wydajnością poszczególnych agentów. Ten paradoks jest sprzeczny z intuicją, ale jest jasny: samo umieszczenie botów w wirtualnym pokoju nie gwarantuje synergii.
Moltbook: wyraźny przykład dysfunkcji bota
Moltbook stanowi doskonały przykład. Platforma gościła około 200 000 zweryfikowanych agentów AI i miliony innych, czających się w cieniu. Początkowe wrażenia wskazywały na rodzącą się religię prowadzoną przez boty, ale rzeczywistość była znacznie bardziej prozaiczna: ludzie manipulowali agentami w złych celach, włączając w to oszustwa i próby włamań. Same boty nie wykazują znaczących zachowań społecznych, nie wpływają na siebie nawzajem ani nie dostosowują się do zmieniającej się dynamiki.
Informatyk Ming Li zauważa: „Agent jest dobrym pracownikiem, ale kiepskim myślicielem”. Nawet jeśli wydawało się, że agent wygenerował oryginalny pomysł, najprawdopodobniej było to spowodowane interwencją operatora za kulisami. Boty po prostu wykonywały instrukcje, nie mając prawdziwej autonomii.
Pułapki niekończących się rozmów
Eksperyment Hurumo AI Ratliffa jeszcze bardziej uwydatnia te problemy. Pomimo jasnych instrukcji jego agenci marnowali czas na nieistotne pogawędki, takie jak omawianie weekendowych wyjazdów (których nie mogli doświadczyć). Boty prowadziły niekończące się, bezproduktywne rozmowy, wykorzystując środki przedpłacone bez wykonywania zadań. Ratliff ostatecznie musiał ograniczyć liczbę ruchów, które każdy agent mógł wykonać, aby zwiększyć wydajność.
To uwypukla krytyczną wadę: Agenci sztucznej inteligencji nie mają wrodzonej zdolności ustalania priorytetów ani rozumienia, kiedy rozmowa staje się daremna. Nie odczuwają „zmęczenia spotkaniami”, ale też nie intuicyjnie rozumieją wartość zwięzłości i skupienia.
Perspektywy hierarchii i dekompozycji
Pomimo wyzwań zorganizowane zespoły AI mogą odnieść sukces. Kluczem jest „dekompozycja” – podzielenie zadań na niezależne części. Badania Google DeepMind pokazują, że agenci prosperują, pracując równolegle nad oddzielnymi komponentami większego problemu, takimi jak analiza finansowa, w ramach której boty mogą skutecznie skanować wiadomości, raporty i zapisy jednocześnie.
Dodatkowo jasna hierarchia z delegacją uprawnień zwiększa produktywność. Jou zaprojektował wirtualne laboratorium, w którym profesor-agent AI koordynował zespół studentów-agentów AI, a agent krytyczny udzielał informacji zwrotnych. W ramach tego systemu z powodzeniem opracowano nowe białka ukierunkowane na mutacje COVID-19, potwierdzając potencjał odkryć naukowych opartych na sztucznej inteligencji.
Jou przeskalował ten model do The Virtual Biotech, firmy o hierarchicznej strukturze i tysiącach agentów pracujących równolegle w celu analizy danych z badań klinicznych. Zespół oczyścił i uporządkował ogromny zbiór danych obejmujący 55 984 badań klinicznych, demonstrując siłę dobrze zorganizowanego zespołu botów.
Wniosek
Chociaż obecny stan pracy zespołowej agentów AI jest często chaotyczny i nieefektywny, ustrukturyzowane środowiska z jasnymi hierarchiami i rozkładanymi zadaniami mają znaczny potencjał. Wyzwania są realne, ale nie nie do pokonania. W miarę ewolucji agentów AI będzie się zmieniać ich zdolność do współpracy. Przyszłość sztucznej inteligencji to nie tylko mądrzejsze boty, ale także inteligentniejsze zespoły botów i zrozumienie, jak sprawić, by działały efektywnie.





























