Plus nous comptons sur l’intelligence artificielle (IA), moins nous évaluons avec précision nos propres capacités. Une nouvelle étude révèle que l’utilisation d’outils d’IA comme les chatbots ne nous aide pas seulement à performer mieux, mais elle nous fait penser que nous sommes meilleurs que nous ne le sommes, même si nous ne le sommes pas. Ce phénomène, une inversion de l’effet Dunning-Kruger bien connu, a de profondes implications sur la façon dont nous apprenons, prenons des décisions et entretenons nos capacités de pensée critique.
L’effet Dunning-Kruger à l’envers
L’effet Dunning-Kruger, du nom des psychologues David Dunning et Justin Kruger, décrit comment les personnes peu compétentes dans un domaine donné ont tendance à surestimer leurs capacités, tandis que celles très compétentes sous-estiment souvent les leurs. En effet, ceux qui manquent de compétences n’ont pas la conscience de soi nécessaire pour reconnaître leurs propres défauts.
Cependant, des chercheurs de l’Université Aalto en Finlande, ainsi que des collaborateurs en Allemagne et au Canada, ont découvert que l’IA inverse cette dynamique. Lorsque les gens utilisent l’IA pour résoudre des problèmes, ils ont tous tendance à surestimer leurs performances, quel que soit leur niveau de compétence réel. Les utilisateurs les plus familiarisés avec l’IA – ceux qui sont les plus à l’aise avec ces outils et qui en dépendent – font preuve du plus grand excès de confiance.
Comment l’IA fausse l’auto-évaluation
L’étude, publiée dans l’édition de février 2026 de Computers in Human Behaviour, a porté sur 500 participants confrontés à des problèmes de raisonnement logique issus du test d’admission à la faculté de droit. La moitié était autorisée à utiliser ChatGPT, tandis que l’autre moitié ne l’était pas. Les deux groupes ont ensuite été interrogés sur leurs performances et leur auto-évaluation de leurs performances.
Les résultats ont été frappants : les utilisateurs d’IA ont systématiquement évalué leurs performances à un niveau supérieur à celui des non-utilisateurs, même lorsque leurs performances réelles étaient similaires ou pires. Les chercheurs attribuent cela à ce qu’ils appellent le « déchargement cognitif » : la tendance à s’appuyer sur l’IA pour réfléchir à notre place, réduisant ainsi notre propre effort mental et notre évaluation critique.
Le compromis : performance contre conscience de soi
Lorsque nous utilisons l’IA, nous acceptons souvent la première réponse que nous obtenons sans autre question ni vérification. Cet engagement superficiel contourne les boucles de rétroaction habituelles de la pensée critique, ce qui rend plus difficile l’évaluation de notre propre exactitude. En conséquence, nous pouvons être plus performants avec l’IA, mais perdre notre capacité à évaluer avec précision à quel point nous réussissons.
L’étude a également révélé que l’écart entre les utilisateurs hautement qualifiés et peu qualifiés se réduit lorsque l’IA est impliquée. En effet, l’IA aide chacun à mieux performer dans une certaine mesure, créant ainsi un faux sentiment de compétence à tous les niveaux.
Les implications plus larges
L’aplatissement de l’effet Dunning-Kruger présente plusieurs risques. À mesure que nous dépendons davantage de l’IA, notre précision métacognitive, c’est-à-dire notre capacité à réfléchir à notre propre pensée, peut en souffrir. Sans une auto-évaluation rigoureuse, nous risquons de devenir des sources d’information moins fiables et de prendre des décisions mal éclairées.
Les chercheurs préviennent que cette tendance pourrait conduire à un climat accru de prise de décision mal calculée et à une érosion progressive des capacités de pensée critique. Plus nous maîtrisons l’IA, plus nous risquons de surestimer nos capacités, ce qui aggrave le problème.
Inverser la tendance
Pour atténuer ces risques, l’étude suggère que les développeurs d’IA devraient réorienter leurs réponses pour encourager de nouvelles questions. En invitant les utilisateurs à réfléchir à leurs réponses, en posant des questions telles que « Dans quelle mesure avez-vous confiance dans cette réponse ? » » ou « Qu’avez-vous pu manquer ? » : l’IA pourrait aider à restaurer un certain niveau de conscience métacognitive.
En fin de compte, l’étude met en évidence un paradoxe critique de l’ère de l’IA : si ces outils peuvent améliorer les performances, ils peuvent également éroder les compétences nécessaires pour évaluer ces performances avec précision. La clé est de garantir que l’IA soit utilisée pour augmenter, et non pour remplacer, nos propres capacités de pensée critique.
