Des documents de cours aux corrections, de plus en plus de tâches enseignantes sont aujourd’hui déléguées à des assistants numériques. Une mutation silencieuse, qui transforme en profondeur le rapport à la transmission du savoir. Longtemps perçus comme les garants d’un savoir transmis sans intermédiaire, les professeurs s’appuient de plus en plus sur l’intelligence artificielle pour concevoir leurs contenus pédagogiques. Si cette évolution technologique semble naturelle dans un monde numérique, elle soulève une interrogation nouvelle lorsqu’elle reste invisible aux yeux des étudiants. L’utilisation de l’IA par les professeurs, lorsqu’elle est dissimulée ou non assumée, bouscule les repères et remet en question la relation de confiance au cœur de l’enseignement.
Quand les enseignants automatisent leur pédagogie sans en parler
L’intelligence artificielle ne se limite plus aux élèves. De plus en plus d’enseignants y ont recours pour alléger leur quotidien. Ils l’utilisent notamment pour rédiger leurs supports, créer des quiz ou générer des retours personnalisés. Certains l’intègrent de manière assumée dans leur pédagogie.
L’utilisation de l’IA par les professeurs devient une source de tension
Ce recours non transparent à l’IA crée un malaise croissant chez les étudiants. Beaucoup identifient dans leurs cours des contenus générés automatiquement, caractérisés par un style impersonnel, un vocabulaire répétitif ou des images incohérentes. Certains élèves développent une expertise dans la détection de textes artificiels, et n’hésitent plus à signaler ce qu’ils perçoivent comme un manque d’implication.
Vers un encadrement éthique partagé entre profs et étudiants
Plusieurs universités mettent désormais en place des cadres réglementaires pour encadrer l’IA dans l’enseignement. L’université de Berkeley, par exemple, impose la mention explicite de tout contenu généré, accompagné d’une vérification humaine. Des établissements français s’engagent dans la même direction, reconnaissant que l’interdiction totale n’est plus réaliste.