
Publié dans : Méthodes et organisation
L’intelligence artificielle promet de « libérer du temps » et d’optimiser l’apprentissage. Mais en déléguant aux machines les tâches qui formaient étudiants et jeunes chercheurs, les universités risquent d’éroder les conditions mêmes de l’expertise.
Dans le débat public sur l’intelligence artificielle (IA) à l’université, une inquiétude revient en boucle : la tricherie. Les étudiants vont-ils confier leurs dissertations à des chatbots ? Les enseignants sauront-ils les démasquer ? Faut-il interdire ces outils sur les campus, ou au contraire les intégrer aux pratiques pédagogiques ?
Ces questions sont légitimes. Mais à force de réduire le sujet à la fraude académique, on passe à côté de l’essentiel : une transformation beaucoup plus profonde est déjà à l’œuvre, qui dépasse largement les seuls comportements des étudiants – et même le cadre de la salle de classe.
Les universités déploient désormais l’IA dans de nombreux aspects de leur fonctionnement. Certaines applications restent largement invisibles : des systèmes qui aident à répartir les ressources, à repérer les étudiants « à risque », à optimiser les emplois du temps ou à automatiser des décisions administratives routinières.
IA non autonomes
On peut distinguer trois types de systèmes d’IA et leurs effets respectifs sur la vie universitaire.
Des logiciels alimentés par l’IA sont déjà utilisés dans l’enseignement supérieur pour l’examen des candidatures, les achats, l’accompagnement pédagogique des étudiants ou encore l’évaluation des risques institutionnels.
On parle ici de systèmes « non autonomes » : ils automatisent certaines tâches, mais un humain reste « dans la boucle » et les utilise comme de simples outils.
Ces technologies peuvent faire peser un risque sur la vie privée et la sécurité des données des étudiants. Elles peuvent aussi être biaisées. Et elles manquent souvent de transparence, ce qui rend difficile l’identification de l’origine de ces problèmes. Qui a accès aux données ? Comment sont calculés les « indices prédictifs de décrochage ou d’échec » ? Comment éviter que ces systèmes ne reproduisent des inégalités ou ne traitent certains étudiants comme de simples cas problématiques à gérer ?
Ces questions sont sérieuses. Mais, au moins dans le champ de l’informatique, elles ne sont pas fondamentalement nouvelles. Les universités disposent en général de services de conformité, de comités d’éthique de la recherche et de mécanismes de gouvernance pensés pour anticiper ou limiter ces risques – même si, dans les faits, ils n’atteignent pas toujours pleinement ces objectifs.
IA hybrides
Les systèmes hybrides regroupent toute une gamme d’outils, parmi lesquels des bots conversationnels assistés par l’IA, des dispositifs de feedback personnalisé ou encore des aides automatisées à l’écriture. Ils reposent souvent sur des technologies d’IA générative, notamment sur de grands modèles de langage, les LLM. Si les utilisateurs humains fixent les objectifs généraux, les étapes intermédiaires que le système mobilise pour les atteindre ne sont, elles, généralement pas spécifiées.
Agents autonomes
Les transformations les plus profondes pourraient venir de systèmes qui ressemblent moins à des assistants qu’à de véritables agents. Si les technologies pleinement autonomes relèvent encore en partie de l’aspiration, l’idée d’un « chercheur en boîte » – un système d’IA agentique capable de mener des études de manière indépendante – devient de plus en plus crédible.
Ces outils dits agentiques sont présentés comme susceptibles de « libérer du temps » pour des activités mobilisant davantage des capacités humaines, comme l’empathie ou la résolution de problèmes. Dans l’enseignement, cela pourrait signifier que les enseignants continuent d’assurer les cours au sens formel, mais que la majeure partie du travail pédagogique quotidien soit déléguée à des systèmes optimisés pour l’efficacité et le passage à l’échelle. En recherche, l’avenir semble appartenir aux systèmes capables d’automatiser toujours davantage le cycle scientifique. Dans certains domaines, cela prend déjà la forme de laboratoires robotisés fonctionnant en continu, capables d’automatiser une grande partie des expérimentations et même de sélectionner de nouveaux tests à partir des résultats précédents.
Un tournant risqué
À quoi servent les universités dans un monde où le travail intellectuel est de plus en plus automatisé ?
Une première réponse consiste à voir l’université avant tout comme une machine à produire des diplômes et des connaissances. Dans cette logique, la question centrale devient celle des résultats : les étudiants obtiennent-ils leurs diplômes ? Des articles sont-ils produits ? Fait-on des découvertes ? Si des systèmes autonomes peuvent générer ces résultats plus efficacement, alors l’institution a toutes les raisons de les adopter.
Dans un monde où le travail intellectuel est lui-même de plus en plus automatisé, les universités doivent, selon nous, s’interroger sur ce qu’elles doivent à leurs étudiants, à leurs jeunes chercheurs et à la société qu’elles servent. Les réponses à ces questions détermineront non seulement la manière dont l’IA sera intégrée, mais aussi ce que deviendra l’université contemporaine.
a




