Les algorithmes n’ont pas de limites. Il appartient donc aux humains de veiller à l’éthique autour de l’intelligence artificielle (IA), et de poser des principes qui protègeront les intérêts des apprenants. Découvrez nos réponses aux 3 risques majeurs de l’IA dans la formation.
Le potentiel de l’IA dans la formation est énorme. Notamment avec des dispositifs ultra personnalisés qui tiennent mieux compte des préférences d’apprentissage des apprenants et en prenant en charge les tâches à faible valeur ajoutée permettant aux formateurs de se focaliser sur ce qui a de la valeur. Mais pas d’angélisme. L’IA comporte aussi des risques.
Les algorithmes n’ont pas d’éthique
Seuls les humains qui conçoivent les algorithmes peuvent anticiper leurs effets, et réguler ces derniers. Un chercheur ou ingénieur n’ayant pas le recul nécessaire sur son travail, peut faire que la machine devienne folle. Un exemple ?
Imaginez le scénario suivant : exclure des apprenants de profils nouveaux (nouvelles générations entrantes) car votre IA ne dispose pas suffisamment de data sur ces profils ?
Les 3 risques majeurs de l’IA dans la formation
Dans le cadre de la journée d’échanges du Cluster Innovation by Cegos dédiée à l’IA, nous avons cherché à identifier plus spécifiquement les risques potentiels associés à l’usage de l’IA en formation, en nous projetant sur des scénarios catastrophes plausibles.
Nous avons également cherché à formuler des principes qui permettraient de gérer ses 3 risques majeurs :
- L’enfermement
- La duperie
- La diffusion non contrôlée de la donnée
—————
Repéré depuis https://www.formation-professionnelle.fr/2020/09/13/comment-allier-ethique-et-ia-dans-le-secteur-de-la-formation/