Le point fort de ChatGPT, c’est de nous donner l’impression de discuter avec un autre être, qui penserait de la même manière que nous. Mais ces apparences nous induisent en erreur, car la conception de l’IA induit un comportement très différent du nôtre. Là où nous croyons lire un discours raisonné, il ne s’agit que d’une production très intuitive.
La cognition humaine peut suivre deux chemins
La cognition humaine se caractérise par une dualité bien documentée. D’une part, nous avons la capacité d’aborder un problème en considérant explicitement ses caractéristiques. Nous délibérons intérieurement et utilisons un raisonnement prospectif (« Que se passerait-il si… »). Ce traitement est lent et représente un coût cognitif important mais permet de s’adapter de façon flexible à une nouvelle situation et d’expliciter sa démarche. D’autre part, si la même situation se reproduit régulièrement, nous allons pouvoir automatiser notre prise de décision et réagir de façon automatique sans traiter tous les détails. Cela a un coût cognitif bien moindre et avec un traitement plus rapide.
Trois limitations fondamentales de l’être humain
Premièrement, nous avons une limitation en temps de calcul : nous devons parfois nous adapter rapidement à des situations nouvelles (en particulier si elles sont potentiellement dangereuses). Pour cela, nous avons développé des capacités d’apprentissage rapide par lesquelles un ou deux exemples nous suffisent à nous adapter à une nouvelle situation ou à retenir certaines de ses caractéristiques.
Deuxièmement, nous avons une limitation en puissance de calcul. Nous vivons depuis des milliers d’années avec à peu près le même cerveau, dans un monde qui est devenu de plus en plus complexe. Et ce cerveau à des contraintes énergétiques majeures qui limitent drastiquement notre mémoire de travail, c’est-à-dire le nombre d’informations que nous pouvons traiter en même temps, ou la fréquence de fonctionnement de nos neurones. Alors que les ordinateurs modernes, toujours plus efficaces et rapides, enchaînent les records de puissance de calcul et de capacité de stockage.
Troisièmement, nous avons des problèmes de communication. Alors qu’il existe des techniques pour qu’un réseau de neurones puisse simplement transférer ce qu’il a appris à un autre réseau, nous n’avons pas la possibilité de nous instruire auprès d’un autre être humain en nous connectant directement à son cerveau. À la place, nous avons développé des « stratégies » comme le langage, l’éducation ou la culture qui nous obligent à apprendre à nous expliquer et à communiquer.
Les apparences de la conversation avec ChatGPT nous induisent en erreur
Ceci est à la source d’une ambiguïté majeure : alors que ChatGPT est un système complexe comportant des milliards de paramètres, entraîné à partir de milliers de milliards de données pour apprendre à prédire la suite de mots la plus probable, il cache cette complexité derrière sa fonction d’agent conversationnel qui nous parle. Par simple projection, comme on le fait quand nous parlons avec nos semblables, nous développons cette illusion d’interagir avec un agent intelligent, qui pense, ressent et comprend comme nous. Ce qui fait que, pour comprendre ces systèmes dont la complexité nous dépasse, nous en sommes à demander à des psychologues d’interpréter leurs raisonnements et de découvrir leurs biais.
Nous risquons de perdre en compréhension et en créativité
Ainsi, ces outils numériques, qui peuvent nous aider à produire plus, peuvent aussi nous entraîner, si on les considère comme des partenaires cognitifs, à moins comprendre et moins pouvoir expliquer ce que l’on fait, à commettre des erreurs, à ne pas nous rendre compte que notre espace de recherche s’est réduit et appauvri.