L’intelligenza artificiale cancella la consapevolezza di sé: perché sopravvalutiamo più che mai le competenze

13

Più facciamo affidamento sull’intelligenza artificiale (AI), meno accuratamente valutiamo le nostre capacità. Un nuovo studio rivela che l’uso di strumenti di intelligenza artificiale come i chatbot non solo ci aiuta a operare meglio, ma ci fa pensare di essere migliori di quello che siamo, anche se non lo siamo. Questo fenomeno, un’inversione del noto effetto Dunning-Kruger, ha profonde implicazioni sul modo in cui apprendiamo, prendiamo decisioni e manteniamo capacità di pensiero critico.

L’effetto Dunning-Kruger al contrario

L’effetto Dunning-Kruger, dal nome degli psicologi David Dunning e Justin Kruger, descrive come le persone con scarsa competenza in una determinata area tendono a sopravvalutare le proprie capacità, mentre quelle con elevata competenza spesso le sottostimano. Questo perché coloro che mancano di abilità non hanno la consapevolezza di sé necessaria per riconoscere i propri difetti.

Tuttavia, i ricercatori dell’Università Aalto in Finlandia, insieme a collaboratori in Germania e Canada, hanno scoperto che l’intelligenza artificiale capovolge questa dinamica. Quando le persone usano l’intelligenza artificiale per risolvere problemi, tutti tendono a sopravvalutare le proprie prestazioni, indipendentemente dal loro effettivo livello di abilità. Gli utenti più esperti di intelligenza artificiale, quelli che si sentono più a proprio agio e fanno affidamento su questi strumenti, mostrano la più forte eccessiva sicurezza.

Come l’intelligenza artificiale distorce l’autovalutazione

Lo studio, pubblicato nell’edizione di febbraio 2026 di Computers in Human Behavior, ha coinvolto 500 partecipanti incaricati di risolvere problemi di ragionamento logico del test di ammissione alla Law School. La metà poteva utilizzare ChatGPT, mentre l’altra metà no. Entrambi i gruppi sono stati poi interrogati sulle loro prestazioni e sulla loro autovalutazione del loro rendimento.

I risultati sono stati sorprendenti: gli utenti dell’intelligenza artificiale hanno costantemente valutato le loro prestazioni superiori rispetto ai non utenti, anche quando le loro prestazioni effettive erano simili o peggiori. I ricercatori attribuiscono questo a ciò che chiamano “offload cognitivo”, ovvero la tendenza a fare affidamento sull’intelligenza artificiale per pensare per noi, riducendo il nostro sforzo mentale e la valutazione critica.

Il compromesso: performance vs. autoconsapevolezza

Quando utilizziamo l’intelligenza artificiale, spesso accettiamo la prima risposta che riceviamo senza ulteriori domande o verifiche. Questo impegno superficiale aggira i consueti circuiti di feedback del pensiero critico, rendendo più difficile valutare la nostra accuratezza. Di conseguenza, potremmo ottenere risultati migliori con l’intelligenza artificiale, ma perdere la nostra capacità di valutare con precisione quanto stiamo andando bene.

Lo studio ha inoltre rilevato che il divario tra utenti altamente qualificati e utenti poco qualificati si riduce quando è coinvolta l’intelligenza artificiale. Questo perché l’intelligenza artificiale aiuta tutti a ottenere risultati migliori in una certa misura, creando un falso senso di competenza a tutti i livelli.

Le implicazioni più ampie

L’appiattimento dell’effetto Dunning-Kruger comporta diversi rischi. Man mano che dipendiamo sempre più dall’intelligenza artificiale, la nostra accuratezza metacognitiva – la nostra capacità di pensare al nostro pensiero – potrebbe risentirne. Senza un’autovalutazione rigorosa, rischiamo di diventare fonti di informazioni meno affidabili e di prendere decisioni poco informate.

I ricercatori avvertono che questa tendenza potrebbe portare a un clima crescente di processi decisionali mal calcolati e a una graduale erosione delle capacità di pensiero critico. Più diventiamo esperti di intelligenza artificiale, più è probabile che sopravvalutiamo le nostre capacità, aggravando il problema.

Invertire la tendenza

Per mitigare questi rischi, lo studio suggerisce che gli sviluppatori di intelligenza artificiale dovrebbero riorientare le risposte per incoraggiare ulteriori domande. Chiedendo agli utenti di riflettere sulle loro risposte, ponendo domande come “Quanto sei sicuro di questa risposta?” o “Cosa potresti esserti perso?”: l’intelligenza artificiale potrebbe aiutare a ripristinare un certo livello di consapevolezza metacognitiva.

In definitiva, lo studio evidenzia un paradosso fondamentale dell’era dell’intelligenza artificiale: sebbene questi strumenti possano migliorare le prestazioni, possono anche erodere le stesse competenze necessarie per valutare accuratamente tali prestazioni. La chiave è garantire che l’intelligenza artificiale venga utilizzata per aumentare, e non sostituire, le nostre capacità di pensiero critico