додому Без рубрики L’intelligenza artificiale funziona meglio quando gli è permesso essere scortese

L’intelligenza artificiale funziona meglio quando gli è permesso essere scortese

L’intelligenza artificiale funziona meglio quando gli è permesso essere scortese

I sistemi di intelligenza artificiale (AI) raggiungono una maggiore precisione in compiti di ragionamento complessi quando sono progettati per imitare la confusione della comunicazione umana, comprese le interruzioni, il parlare a sproposito e persino l’essere deliberatamente schietti. Un recente studio condotto da ricercatori dell’Università di Elettro-Comunicazioni di Tokyo dimostra che la stretta aderenza all’interazione formale e a turni ostacola la risoluzione dei problemi dell’intelligenza artificiale, mentre consentire scambi più naturali, a volte abrasivi, porta a risultati superiori.

Il problema della cortesia

Gli attuali modelli di intelligenza artificiale seguono in genere rigidi protocolli di comunicazione, elaborando i comandi in sequenza e rispondendo solo quando richiesto. Questo imita l’efficienza dei computer ma manca dell’energia caotica del dialogo umano. Le vere conversazioni umane sono piene di interruzioni, silenzi e frasi ambigue. Questo studio mette in discussione il presupposto secondo cui l’efficienza è sempre ottimale, dimostrando che un certo grado di disruption può effettivamente migliorare l’intelligenza collettiva.

I ricercatori volevano verificare se fornire agli agenti di intelligenza artificiale “segnali sociali” – come la capacità di interrompere o rimanere in silenzio – avrebbe aumentato le loro prestazioni. Il coautore dello studio, il professor Yuichi Sei, spiega che “gli attuali sistemi multi-agente spesso sembrano artificiali perché mancano delle dinamiche disordinate e in tempo reale della conversazione umana”. L’obiettivo non era semplicemente rendere l’intelligenza artificiale più simile a quella umana, ma migliorare la sua capacità di raggiungere conclusioni accurate in discussioni complesse.

IA guidata dalla personalità

Il team ha integrato i “cinque grandi” tratti della personalità (apertura, coscienziosità, estroversione, gradevolezza e nevroticismo) in grandi modelli linguistici (LLM). Ciò ha consentito agli agenti IA di mostrare diversi stili di comunicazione. Fondamentalmente, i LLM sono stati riprogrammati per elaborare le risposte frase per frase invece di generare risposte intere prima di interagire, consentendo un dialogo più fluido e reattivo.

Hanno quindi testato tre impostazioni di conversazione: ordine di conversazione fisso, ordine di conversazione dinamico e ordine di conversazione dinamico con interruzioni abilitate. L’impostazione finale ha introdotto un “punteggio di urgenza” che permetteva all’IA di intervenire quando rilevava errori o punti critici, indipendentemente da chi fosse il turno di parlare. Al contrario, se il punteggio di urgenza era basso, l’IA rimaneva silenziosa per evitare chiacchiere inutili.

Risultati: la maleducazione aumenta la precisione

I ricercatori hanno valutato le prestazioni utilizzando il benchmark Massive Multitask Language Understanding (MMLU), un test di ragionamento standardizzato basato sull’intelligenza artificiale. I risultati sono stati sorprendenti.

  • Negli scenari in cui un agente inizialmente ha fornito una risposta errata, la precisione è aumentata dal 68,7% con l’ordine fisso al 79,2% quando erano consentite le interruzioni.
  • Quando due agenti hanno iniziato con risposte sbagliate, la precisione è passata dal 37,2% con l’ordine fisso al 49,5% con le interruzioni abilitate.

Questi risultati suggeriscono che consentire all’intelligenza artificiale di sfidarsi a vicenda in modo aggressivo – anche sgarbato – accelera il processo di correzione degli errori e migliora la precisione complessiva. Si tratta di un allontanamento significativo dalla progettazione convenzionale dell’intelligenza artificiale, che privilegia la cortesia e la non interruzione.

Implicazioni per il futuro

Il professor Sei prevede di applicare questi risultati ai sistemi di intelligenza artificiale collaborativa, esplorando come le “personalità digitali” possono influenzare il processo decisionale in contesti di gruppo. Lo studio dimostra che nelle future interazioni tra agenti di intelligenza artificiale ed esseri umani, discussioni guidate dalla personalità, inclusa la capacità di interrompere, potrebbero produrre risultati migliori rispetto agli scambi strettamente educati e a turni. Questa ricerca mette in discussione le ipotesi di lunga data sulla comunicazione efficace, suggerendo che a volte, un piccolo attrito è proprio ciò che è necessario per arrivare alla verità.

Exit mobile version