Dans la première partie, nous avons balayé les promesses d’ultra personnalisation des contenus et de guidage de l’IA appliquée à l’éducation, à l’aune des sciences cognitives. Dans cette seconde partie, nous vous proposons de découvrir d’autres promesses pour promouvoir le droit à l’erreur, la motivation et l’apprentissage autorégulé.

Un contexte d’apprentissage pour promouvoir le droit à l’erreur et la motivation ?

En plus d’adapter le retour d’information aux progrès de l’apprenant·e, les environnements d’apprentissage reposant sur l’IA ne portent normalement pas de jugement de valeur (jusqu’à preuve du contraire !). Ce regard, a priori, objectif sur la performance d’apprentissage peut créer un environnement plus neutre où les apprenant·es se sentent à l’aise pour commettre des erreurs sans retenue, mais aussi de prendre davantage de risques pour tester plusieurs solutions à un problème.

Quelques ombres tout de même à ce tableau… L’IA peut avoir un effet positif sur les apprenant·es ayant une motivation modérée, mais face à un niveau de motivation plus faible et un niveau de challenge trop élevé, le support de l’IA semble atteindre ses limites. Cela peut s’expliquer par l’absence d’explicitation poussée dans les feedbacks, de renforcement positif, d’encouragements personnalisés, ou encore d’interaction sociale. Or, ces éléments sont essentiels, non seulement pour la rétention des savoirs, mais aussi pour motiver les apprenant·es à persévérer face aux défis (3).

Faciliter l’apprentissage auto-régulé, sous certaines conditions

Un effet plus indirect que peuvent avoir des systèmes intelligents basés sur l’IA, aussi plus difficile à mesurer, serait de fournir des recommandations sur quoi, comment et quand apprendre. Cette capacité de planification et de surveillance du processus d’apprentissage (dit «d’auto-régulation»), se développe au fil du temps et repose sur la connaissance des méthodes et outils réellement efficaces pour apprendre, mais également sur le degré d’autonomie et les ressources dont disposent les apprenant·es.

L’IA à l’épreuve de l’apprentissage : de nombreux défis à relever grâce à l’expérimentation

Les principales limites des systèmes basés sur l’IA découlent de la nature du modèle au cœur de leur fonctionnement : il ne faut pas oublier que ces modèles sont des approximations de la réalité. Lorsque des ingrédients importants de l’apprentissage ne sont pas pris en compte dans le modèle, l’adaptabilité qui en résulte devient limitée et le soutien fourni au processus d’apprentissage est alors beaucoup moins fiable, ainsi que son applicabilité dans divers contextes. En effet, la prise prenant en compte fine du contexte et du ressenti d’un apprenant.e pour en déduire les moments propices à l’apprentissage restent bien mieux maîtriser par l’humain.

Partagez cet article

Toute l'actualité ILDI