Umělá inteligence funguje lépe, když může být hrubá

9

Umělá inteligence (AI) prokazuje větší přesnost při řešení složitých problémů, když je navržena tak, aby napodobovala chaotickou povahu lidské komunikace, včetně přerušení, mluvení mimo pořadí a dokonce i záměrné přímosti. Nedávná studie vědců z Tokijské telekomunikační univerzity ukazuje, že přísné dodržování formálních, tahových interakcí brání řešení problémů s umělou inteligencí, zatímco umožnění přirozenějších, někdy důraznějších výměn vede k lepším výsledkům.

Problém zdvořilosti

Moderní modely umělé inteligence se obvykle řídí přísnými komunikačními protokoly, zpracovávají příkazy postupně a reagují pouze na vyžádání. Napodobuje efektivitu počítačů, ale postrádá chaotickou energii lidského dialogu. Skutečné lidské rozhovory jsou plné přerušení, pauz a nejednoznačných jazyků. Tento výzkum zpochybňuje předpoklad, že efektivita je vždy optimální, a ukazuje, že určitý stupeň narušení může ve skutečnosti zvýšit kolektivní inteligenci.

Výzkumníci chtěli otestovat, zda poskytnutí „sociálních podnětů“ agentům AI – jako je schopnost přerušit nebo zůstat zticha – zlepší jejich výkon. Spoluautor studie profesor Yuichi Sei vysvětluje, že „stávající multiagentní systémy se často cítí umělé, protože postrádají chaotickou dynamiku lidské komunikace v reálném čase“. Cílem nebylo jen učinit AI lidštější, ale zlepšit její schopnost dosahovat přesných závěrů ve složitých diskusích.

Umělá inteligence založená na osobnosti

Tým integroval pět základních osobnostních rysů (otevřenost, svědomitost, extraverze, přívětivost a neuroticismus) do velkých jazykových modelů (LLM). To umožnilo agentům AI demonstrovat různé komunikační styly. Je důležité poznamenat, že LLM byly přeprogramovány tak, aby zpracovávaly odpovědi větu po větě spíše než aby generovaly úplné odpovědi před interakcí, což má za následek plynulejší a reaktivnější dialog.

Poté testovali tři scénáře konverzace: pevné pořadí mluvení, dynamické pořadí mluvení a dynamické pořadí mluvení s povolenými přerušeními. Poslední scénář zavedl „faktor naléhavosti“, který umožnil AI ​​zasáhnout, když zjistila chyby nebo kritické momenty, bez ohledu na to, kdo byl na řadě. Naopak, pokud byl faktor naléhavosti nízký, umělá inteligence zůstala zticha, aby se vyhnula zbytečnému klábosení.

Výsledky: Hrubost zlepšuje přesnost

Výzkumníci hodnotili výkon pomocí benchmarku Massive Multitask Language Understanding (MMLU), což je standardizovaný test uvažování AI. Výsledky byly úžasné.

  • Ve scénářích, kdy jeden agent zpočátku dal špatnou odpověď, se přesnost zvýšila z 68,7 %, když byla objednávka opravena, na 79,2 %, když byla povolena přerušení.
  • Když dva agenti začali s nesprávnými odpověďmi, přesnost vyskočila z 37,2 % s pevným pořadím na 49,5 % s povolenými přerušeními.

Tyto výsledky ukazují, že umožnění AI, aby se navzájem agresivně – i hrubě – vyzývalo, urychluje proces opravy chyb a zlepšuje celkovou přesnost. Jde o výrazný odklon od tradičního designu AI, který upřednostňuje zdvořilost a nenápadnost.

Důsledky pro budoucnost

Profesor Seay plánuje aplikovat tato zjištění na kolaborativní systémy umělé inteligence a studuje, jak mohou „digitální osobnosti“ ovlivnit rozhodování ve skupinovém prostředí. Studie naznačuje, že v budoucích interakcích mezi agenty umělé inteligence a lidmi mohou rozhovory založené na osobnosti, včetně schopnosti přerušit, přinést lepší výsledky než přísně zdvořilé výměny názorů. Tento výzkum zpochybňuje zažité předpoklady o efektivní komunikaci a naznačuje, že někdy je přesně to, co je potřeba k tomu, abychom se dostali k pravdě, trochu tření.