
Publié dans : Cognition et Communication
Un système d’IA doit toujours être supervisé par un humain, mais encore faut-il que cette personne soit en mesure de distinguer quand elle comprend ce que propose la machine et quand elle peut être influencée.
Les cadres contemporains de gouvernance de l’intelligence artificielle (IA) reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il doit être en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent transparence, explicabilité et supervision humaine.
Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle, et techniquement opaques – précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.
Des opérateurs métacognitivements avertis
La métacognition – la capacité à monitorer et réguler ses propres processus cognitifs – est le substrat psychologique d’une supervision efficace. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.
Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Les travaux de Kahneman sur une cognition à double processus – connu aussi sous le nom de Système 1/Système 2, les deux vitesses de pensées – éclairent ce mécanisme. Face à un système IA qui produit un output avec fluidité et assurance, l’esprit humain tend à activer un traitement rapide et intuitif (celui qu’on mobilise pour des tâches familières et peu risquées), plutôt que de réaliser une analyse profonde de la situation, plus longue, plus réfléchi, plus logique, et donc plus gourmande cognitivement.
Plus concrètement, sur la tâche d’analyse de sentiment, l’IA expliquait son jugement en surlignant les mots qu’elle avait identifiés comme positifs ou négatifs. Or les participants humains évaluaient le ton d’un texte de manière globale, en tenant compte du contexte et de la cohérence d’ensemble – un processus que la mise en évidence de mots individuels ne peut pas restituer. Ici, l’IA et l’humain n’arrivent pas à leur jugement par le même chemin : L’IA identifie des élements locaux (un mot, une phrase), là ou l’humain construit un jugement holiste (l’ensemble du texte, le contexte, la cohérence interne). Quand l’explication fournie reflète la logique de la machine plutôt que celle du raisonnement humain, elle ne donne pas à l’opérateur les outils pour évaluer si la recommandation est fiable – elle le convainc simplement de la suivre.
Trois implications pour la gouvernance de l’IA
Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique – parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales –, trois implications peuvent être énoncées :
- La transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans impliquer les individus dans les processus de conception de ces explications et de cette documentation et prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que « trop d’explications » peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.
- La qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé.
- Les compétences métacognitives – savoir ce qu’on comprend, détecter ses propres erreurs de raisonnement, réguler ses stratégies cognitives – varie selon les individus et n’est pas uniformément répartie au sein de la population, ce qui crée un risque structurel pour la sécurité. Il s’agit d’une hypothèse, formulée à partir de travaux menés en psychologie de l’éducation, qui n’a pas encore été étudiée dans le contexte de la gouvernance de l’IA. C’est peut-être le prochain axe de recherche que les gouvernements devraient activement encourager. En effet, si les organisations les mieux dotées en moyens matériels et en ressources humaines peuvent satisfaire aux exigences de supervision réelle, celles qui n’en n’ont pas – non pas parce que leurs personnels seraient moins capables, mais parce que les conditions permettant le développement de cette compétence situationnelle n’ont pas été réunies – produiront une conformité de façade, insuffisante, générant une fausse sécurité particulièrement dangereuse dans les domaines critiques.
Articles similaires
Compétences métacognitives et gouvernance de l'IA : enjeux et défis pour une supervision efficace
La gestion des compétences est devenue essentielle dans un environnement marqué par l'incertitude et la volatilité. Les compétences telles que la pensée critique et la gestion des conflits doivent être intégrées et pratiquées dans des contextes professionnels spécifiques pour être réellement efficaces. L'utilisation d'outils d'intelligence artificielle, comme la capacigraphie, permet d'accélérer l'apprentissage et de suivre l'évolution des compétences en temps réel. Cependant, la formation actuelle reste insuffisante pour préparer les individus à des situations complexes, soulignant l'importance d'un mentorat humain pour guider les nouveaux apprenants. Cette dynamique de développement des compétences s'aligne avec la nécessité d'une supervision humaine éclairée dans le cadre de l'intelligence artificielle, comme le souligne le nouveau post.
Évaluation des compétences pour une formation ciblée et efficace en entreprise
La mise en place d'une matrice de compétences est essentielle pour identifier les collaborateurs capables d'assumer des tâches spécifiques, permettant ainsi une évaluation précise des compétences maîtrisées par chaque individu. Cette approche favorise l'élaboration de parcours de formation individualisés, optimisant les ressources en temps et en budget. En intégrant une cartographie des compétences liée aux fonctions et responsabilités, les organisations peuvent mieux répondre aux exigences de supervision humaine dans le cadre de l'intelligence artificielle, en s'assurant que les opérateurs disposent des compétences nécessaires pour évaluer efficacement les outputs des systèmes d'IA. Cette démarche s'aligne avec la nécessité d'une gouvernance de l'IA qui prend en compte la métacognition des opérateurs, soulignant l'importance d'une formation adaptée dans des context
Compétences métacognitives et gouvernance de l'IA : enjeux et implications
La supervision humaine des systèmes d'intelligence artificielle (IA) nécessite une compréhension métacognitive des opérateurs, qui doit être prise en compte dans les cadres de gouvernance. Les compétences métacognitives, qui incluent la capacité à évaluer ses propres processus de pensée, sont essentielles pour interpréter correctement les outputs de l'IA. Dans des contextes à forts enjeux, où la pression temporelle et la complexité technique sont présentes, cette capacité devient cruciale pour éviter des jugements erronés. Les connaissances procédurales, qui se développent par la pratique et l'expérience, sont également importantes pour garantir une supervision efficace, soulignant ainsi la nécessité d'une formation adaptée pour les opérateurs.




