Sauf à avoir vécu en ermite durant les 3 dernières années, vous avez peu ou prou entendu parler des IA génératives. Peut-être même maîtrisez-vous l’art de faire parler les LLM.

Parmi la novlangue du bestiaire IA peuplé de Chats et autres animaux de silice, vous avez dû entendre les termes de RAG, de RIG peut-être, de fine-tuning certainement. En 2025, c’est l’agent autonome qui va tenir le haut du pavé sémantique. Des prodiges de technologie, nous promet-on. Ces agents devraient bousculer un peu plus nos idées reçues sur la formation multimodale.

Si vous pensez encore que l’intelligence artificielle générative se contente de vous suggérer un scénario pédagogique et des contenus en moins de temps qu’il ne vous faut pour prompter, détrompez-vous : les agents IA autonomes vont débarquer (un jour prochain…) pour révolutionner le parcours apprenant et l’organisation des équipes pédagogiques au sens large.

SOMMAIRE :

1. Rencontre du 3e type

Un agent autonome est une intelligence artificielle capable d’accomplir des tâches sans supervision humaine directe. Contrairement aux « simples » agents conversationnels type ChatGPT, Mistral, Claude, Midjourney ou Synthesia pour ne citer qu’eux, ces agents autonomes sont capables de prendre des décisions sans intervention humaine directe, de s’adapter aux situations, et d’améliorer leurs performances par auto-apprentissage.

En formation, ces outils pourront anticiper et comprendre les besoins d’un apprenant, lui proposer des ressources adaptées et interagir de manière proactive pour favoriser sa progression. Pour l’heure, ces outils d’un nouveau type sont encore à l’état de projets dans des entreprises qui ont déjà adopté l’IA. En 2025, le terme devrait fleurir nombre de publications, de webinaires voire de feuilles de route d’éditeurs de plateformes ou d’outils auteur.

Analyse en temps réel des performances, des préférences et des difficultés des apprenants pour un parcours et un accompagnement individualisé, disponibilité 24/7 pour lever les freins de compréhension, évaluations formatives et sommatives dynamiques avec feedback personnalisés, gestion administrative de la formation optimisée… Autant de cas d’usage pour libérer du temps à forte valeur ajoutée aux équipes techno-pédagogiques et aux formateurs pour penser la pédagogie autrement, sans toutefois tomber dans l’angélisme algorithmique car ces solutions ont un coût financier et énergétique et posent des questions éthiques qu’il ne faudrait pas sous-estimer.

Pourquoi maintenant ?

L’IA générative a d’ores et déjà démontré son potentiel pour créer du contenu et interagir avec les utilisateurs. L’étape suivante est l’autonomie dans la prise de décision et l’adaptation en temps réel. L’évolution des solutions d’IA générative, depuis des outils accessibles sans configuration ni paramétrage technique sophistiqué, jusqu’à des systèmes ultra-personnalisés et complexes, permet aujourd’hui d’envisager les systèmes d’agents.

Pour appréhender le potentiel des agents IA autonomes dans les dispositifs de formation, il est crucial de comprendre les différentes approches technologiques qui en constituent le socle.

Pourquoi ? Parce que ces agents autonomes ne surgissent pas de nulle part : ils reposent sur une orchestration complexe d’outils et de méthodes, chacun ayant ses spécificités et ses niveaux de personnalisation.

Dans un concert symphonique, avant de manier la baguette, le chef d’orchestre doit maîtriser la partition, le rôle et la place de chaque instrument dans l’œuvre et donc dans l’orchestre. De la même manière, identifier les différentes approches de l’IA stand alone ou intégrée par API au fine-tuning en passant par le Retrieval-Augmented Generation (RAG) et le Retrieval-Inference Generation (RIG) constitue un socle conceptuel pour saisir comment l’articulation de ses différentes approches amène aujourd’hui à envisager la création d’agents autonomes.

Différencier ces approches fluidifie le dialogue avec les équipes techniques et les prestataires IA pour :

  • Évaluer les besoins spécifiques de chaque environnement de formation : chacune de ces technologies offre des avantages spécifiques que l’on parle de solutions prêtes à l’emploi pour des besoins ponctuels jusqu’à des systèmes intégrés capables d’interagir avec les différentes plateformes de l’entreprise ;
  • Identifier les investissements financiers et humains à allouer : distinguer ces approches permet d’anticiper les coûts organisationnels et techniques pour les équipes comme, le cas échéant, pour les apprenants.
  • Choisir la solution la plus adaptée : identifier le potentiel et les limites de ces outils facilite la définition d’une stratégie d’intégration progressive, en partant d’outils simples jusqu’aux solutions sur mesure, pour maximiser l’impact pédagogique tout en minimisant les risques.
  • Assurer une intégration harmonieuse et maîtrisée : appréhender les capacités et limites de chaque approche vise à construire une architecture IA robuste, capable de s’adapter à l’évolution des besoins de l’organisation et des apprenants.

2. Visite guidée

Une compréhension des différentes approches technologiques se révèle clé pour transformer efficacement l’environnement, les process de production et les parcours de formation et tirer pleinement parti des agents IA autonomes. Tour d’horizon des différentes approches en matière d’IA.

IA stand alone

Vous les connaissez, vous les utilisez sans doute. Il s’agit des ChatGPT, Mistral, Claude, Midjourney, Runway, ElevenLabs, Udio… Ce sont des applications prêtes à l’emploi, accessibles via une interface ergonomique et intuitive sur laquelle vous entrez un prompt et obtenez une réponse quasi-immédiate, quel que soit le format de sortie du contenu.

Cas d’usage courant : génération de ressources pédagogiques. ChatGPT ou Mistral vont rédiger rapidement une capsule de contenu ou des quiz, des mises en situation contextualisées en réponse au prompt du concepteur. NotebookLM de Google va produire un podcast audio à partir de documents préalablement téléchargés dans l’interface….

Caractéristiques :

  • Accessibilité : aucune configuration complexe, l’outil est accessible directement via son interface.
  • Fonctionnalités limitées : idéal pour des tâches ponctuelles ou unitaires (scénarisation pédagogique, génération d’un quiz ou d’une image, contextualisation d’une mise en situation…), sans personnalisation poussée, ni intégration avec d’autres systèmes.
  • Indépendance technique : fonctionnement autonome, sans besoin d’intégration dans une plateforme de formation existante.

IA interfacées par API

Un dialogue machine to machine. Ces solutions se connectent aux systèmes internes (un LMS, un TMS, un CRM…) via des interfaces de programmation (API).

Cas d’usage courants :

  • accompagnement apprenant : un apprenant demande un complément d’explications sur un contenu du parcours de formation, l’API interagit avec le modèle pour générer une réponse contextuelle directement dans l’interface de formation.
  • automatisation de la création de contenus : l’IA intégrée dans un outil auteur peut produire automatiquement des capsules pédagogiques, des synthèses de modules, des formats diversifiés d’un même contenu, des versions multilingues, etc… Ces contenus sont intégrés directement dans la plateforme pour enrichir les ressources existantes.

Caractéristiques :

  • Personnalisation et intégration : adaptation de l’outil aux besoins spécifiques de l’entreprise en l’intégrant directement dans les systèmes déjà déployés.
  • Interopérabilité : circulation des données entre les différents outils utilisés (LMS, CRM, systèmes d’évaluation).
  • Maintenance externe : mises à jour de l’outil réalisées par le fournisseur de l’API.

RAG – Retrieval-Augmented Generation

Le RAG combine la génération de contenu avec une fonction de recherche dans un corpus propre à l’organisation, intégré dans une base de données propriétaire. Le RAG présente l’avantage de contextualiser les réponses avec des informations spécifiques relatives au contexte, process, secteur, vocabulaire de l’entreprise.

Cas d’usage courant : Imaginons une entreprise de travaux publics. Le RAG combine la génération de contenu avec une fonction de recherche dans le corpus de l’entreprise, ici, une base de données propriétaire contenant toutes les normes, procédures, manuels techniques et documents réglementaires relatifs aux travaux publics. Les réponses seront contextualisées avec des informations techniques spécifiques, correspondant exactement aux exigences du secteur, aux processus internes et au vocabulaire technique de l’entreprise.

  • Réponses pédagogiques contextualisées : l’apprenant souhaite identifier les procédures de sécurité à respecter lors de la manipulation et du stockage des matériaux dangereux sur un chantier. Le RAG effectue d’abord une recherche dans la base de données interne qui regroupe les normes de sécurité, les procédures opérationnelles et les manuels d’utilisation propres à l’entreprise. Ensuite, il génère une réponse détaillée et contextualisée, intégrant les références normatives (exigences de l’INRS ou normes ISO applicables, par exemple), des exemples pratiques et des conseils spécifiques à l’environnement de travaux publics.
    Cette réponse permet aux apprenants de disposer d’une information précise, conforme aux procédures internes et aux exigences réglementaires et facilite la mise en application des règles de sécurité sur le terrain.

Caractéristiques :

  • Contextualisation : des réponses enrichies par des données spécifiques à un domaine, pour une formation contextualisée au secteur, à l’environnement de l’entreprise, au poste ou aux missions de l’apprenant…
  • Optimisation des réponses : une rigueur sur les processus, données, bonnes pratiques de l’entreprise ou du secteur (médical, juridique, etc.).
  • Réduction des erreurs : une sécurisation des réponses qui minimise les risques d’inexactitude.

RIG – Retrieval-Inference Generation

Le RIG débute de la même manière que le RAG en récupérant des informations pertinentes à partir d’une base de données propriétaire ou spécialisée. Puis il va au-delà de la simple collecte pour restitution. Après avoir rassemblé les données, le RIG applique une couche d’inférence[1] qui lui permet d’analyser, de combiner et d’interpréter les informations pour produire des réponses détaillées, contextualisées et plus adaptées aux besoins spécifiques de l’utilisateur.

Cas d’usage courant : si l’on reprend l’exemple de la formation pour une entreprise de travaux publics, lorsque l’apprenant pose une question complexe sur les procédures de sécurité sur chantier ou lorsque le concepteur souhaite produire du contenu sur les procédures de sécurité, le RIG ne se contente pas de restituer un extrait du manuel technique. Il examine d’abord toutes les informations pertinentes contenues dans la base de données (normes, procédures, retours d’expérience) puis articule ces éléments pour proposer des recommandations précises et opérationnelles sur la mise en œuvre des mesures de sécurité. Ce processus donne lieu à une réponse plus complète et nuancée qu’une simple extraction de texte.

Caractéristiques :

  • Analyse approfondie : génère des contenus nuancés et riches grâce à une inférence complexe.
  • Applications avancées : particulièrement adapté aux domaines qui nécessitent une compréhension fine et détaillée.
  • Complexité technique : requiert une expertise pointue pour développer et maintenir les algorithmes d’inférence.

Fine-Tuning

Le fine-tuning consiste à prendre un modèle d’IA pré-entraîné (comme GPT-4, par exemple) et à le réentraîner sur des données spécifiques à une organisation ou à un domaine particulier. L’objectif est d’adapter le modèle pour qu’il comprenne mieux le vocabulaire, les processus et les particularités d’un secteur ou d’une organisation donnés et d’améliorer de facto la pertinence globale des réponses. Par exemple, une entreprise de travaux publics peut affiner un modèle pour qu’il intègre les normes, les procédures internes et le jargon spécifique à son domaine. Ce processus est effectué en amont et modifie les poids internes du modèle pour qu’il devienne plus performant dans le contexte ciblé.

Quelles différences avec le RIG ?
Le fine-tuning et le RIG sont deux approches complémentaires : l’une adapte le modèle de manière pérenne à un contexte particulier, tandis que l’autre enrichit dynamiquement les réponses en combinant recherche et inférence au moment de l’interrogation.

  • Moment d’intervention :
    • Fine-Tuning : réalisé en amont, le modèle est personnalisé avant d’être déployé, et ses performances sont améliorées sur l’ensemble des requêtes.
    • RIG : Opère en temps réel, en récupérant et en analysant des informations à chaque demande pour produire une réponse contextualisée.
  • Nature de l’ajustement :
    • Fine-Tuning : modifie les paramètres internes du modèle pour qu’il soit intrinsèquement plus adapté à un domaine particulier.
    • RIG : n’altère pas le modèle de base ; il enrichit la réponse en combinant récupération de données et inférence lors de l’exécution.
  • Application :
    • Fine-Tuning : idéal pour personnaliser un modèle pour un usage constant dans un contexte spécifique (par exemple, l’ensemble des formations d’une entreprise).
    • RIG : parfait pour des réponses ponctuelles nécessitant une contextualisation fine et immédiate, notamment lorsque les informations doivent être extraites d’une base de données spécialisée en temps réel.

Cas d’usage courants :

  • Personnalisation académique : une université peut affiner un modèle pour qu’il intègre le jargon, les références bibliographiques, et les méthodes pédagogiques propres à ses cursus et à ses process.
  • Adaptation aux spécificités sectorielles d’une entreprise : une entreprise qui propose des formations internes sur la cybersécurité peut ajuster un modèle d’IA pour qu’il utilise des exemples, des protocoles et des normes spécifiques à son secteur d’activité pour des réponses et des contenus parfaitement alignés avec l’état de l’art et le cadre légal et réglementaire.

Caractéristiques :

  • Personnalisation poussée : le modèle est parfaitement adapté aux besoins et aux particularités de l’utilisateur ou de l’organisation.
  • Meilleure pertinence : les réponses générées tiennent compte des spécificités locales et contextuelles pour optimiser la qualité pédagogique des contenus.
  • Investissement en temps et en compétences : nécessite une préparation minutieuse des données et une expertise technique poussée pour l’entraînement et le déploiement.
  • Éco-responsabilité : forte consommation énergétique lors du réentraînement.

3. Et les agents autonomes dans tout ça ?

Les agents autonomes reposent sur plusieurs briques technologiques qui leur permettent de percevoir leur environnement et de prendre des décisions. Concrètement, ils peuvent utiliser et combiner plusieurs approches décrites précédemment.

Comparaison n’est pas raison

L’agent autonome a besoin de comprendre le monde et d’articuler des concepts dans une forme de raisonnement qui lui est propre. De façon simplifié, il s’appuie sur un modèle d’intelligence artificielle, comme :

  • Un modèle de langage (LLM) : GPT-4, Claude, Mistral… pour comprendre et générer du texte.
  • Un modèle de machine learning : capable de détecter des schémas et d’apprendre de nouvelles informations au fil du temps.

Exemple : un assistant médical IA peut analyser des dossiers patients et proposer des recommandations en fonction des sommes d’informations médicales et thérapeutiques qu’il a ingurgitées.

Travail de mémoire

L’agent autonome doit stocker en mémoire ce qu’il a appris pour éviter de repartir de zéro à chaque interaction. Schématiquement, il utilise :

  • une mémoire courte pour stocker des informations pour une tâche en cours ;
  • une mémoire longue pour retenir des éléments d’une conversation ou d’une tâche sur le long terme ;
  • une base de données ou un RAG pour aller chercher des informations en temps réel.

Exemple : un agent IA qui assiste un client doit se rappeler de son historique d’achats pour lui proposer des recommandations pertinentes.

Moteur …

L’agent ne se contente pas d’exécuter des tâches passivement comme les autres modèles décrits précédemment. Il doit :

  • planifier ses actions en fonction des objectifs.
  • s’adapter aux changements susceptibles d’intervenir dans l’environnement.
  • évaluer plusieurs options et choisir la meilleure.

Pour ce faire, il peut utiliser des algorithmes de planification ou du reinforcement learning (apprentissage par essais et erreurs).

Exemple : un robot IA dans un entrepôt doit trouver le chemin optimal pour déplacer des objets sans heurter d’obstacles.

L’agent autonome n’agit pas seul. Il se doit de communiquer avec, par exemple :

  • des APIs externes (pour interroger une base de données, trouver des informations pertinentes…) ;
  • d’autres agents IA (un agent IA en charge de l’accompagnement des apprenants collabore avec un agent IA chargé de l’évaluation pour adapter les exercices en fonction des performances) ;
  • des systèmes physiques (des capteurs dans un robot, une caméra de surveillance…).

Exemple : dans le cadre d’une formation technique en réalité virtuelle, un agent IA interprète les données des capteurs pour guider l’apprenant dans ses manipulations d’un équipement simulé.

…et action

Une fois la décision prise, l’agent doit passer à l’action :

  • envoyer des requêtes par API (ex : réserver une salle de formation pour une session, par exemple) ;
  • rédiger du texte (produire un rapport sur le taux de satisfaction de la dernière session de formation, par exemple) ;
  • Contrôler un robot (ajuster le mouvement d’un bras mécanique sur une plateforme physique d’entraînement, par exemple).

Exemple : Un agent autonome peut servir à automatiser des workflows et pour ce faire, envoyer des emails, organiser des réunions et générer des rapports.

Pour résumer : les briques techniques d’un agent autonome

    1. Raisonnement (modèle d’IA) Comprendre et apprendre
    2. Mémoire (base de données, RAG) Se souvenir et récupérer de l’information.
    3. Prise de décision (algorithmes) Planifier et choisir la meilleure action.
    4. Communication (APIs, autres agents) Échanger des informations avec d’autres systèmes ou agents pour déployer l’action planifiée.
    5. Exécution (actions, robots, logiciels) Agir sur le monde réel.

Côté briques fonctionnelles, ce qui caractérise l’agent par rapport aux IA génératives plus classiques réside dans la capacité de décision et la mise en œuvre de cette décision sans intervention humaine directe.

4. Mais à quoi peut servir un agent autonome ?

L’émergence des agents IA autonomes pourrait transformer en profondeur le paysage de la formation initiale et continue. Contrairement aux approches désormais presque classiques basées sur des IA par API, RAG (Retrieval-Augmented Generation), RIG (Retrieval-Integrated Generation) ou le fine-tuning, les agents autonomes offrent des fonctionnalités uniques. Leur capacité à orchestrer des processus complexes, à s’adapter en temps réel, et à proposer des solutions personnalisées place ces technologies au cœur des innovations pédagogiques.

Les cas d’usage envisageables avec les agents autonomes dépassent ceux des autres technologies d’IA car ils ne se limitent pas à répondre à des requêtes ou à fournir des informations. Ils anticipent, planifient, et prennent des décisions pour offrir des expériences d’apprentissage dynamiques et intégrées.

5. Quelques grands classiques revisités

1. Planification dynamique et proactive des parcours d’apprentissage

Un agent autonome a la capacité d’anticiper et de réagir en temps réel aux progrès ou aux difficultés de l’apprenant sans nécessiter d’intervention humaine. Ainsi, par exemple, l’agent pourrait-il ajuster automatiquement le parcours en fonction des interactions de l’apprenant (exercices réussis, temps passé sur un module, etc.).

Il pourrait proposer des ressources basées sur l’historique et les objectifs à long terme de l’apprenant.

Quelle valeur ajoutée par rapport à des approches d’IA actuellement plus classiques ?

  • Par rapport à un modèle d’IA interfacé par API : une API ne peut répondre qu’à des requêtes spécifiques et statiques. L’agent autonome, en revanche, s’adapte continuellement, en prenant des décisions basées sur des critères multiples (progrès, niveau, préférences).
  • Par rapport à un modèle RAG ou RIG : ces approches ne personnalisent pas le parcours ; elles se limitent à fournir des informations ou des contenus pertinents à un moment donné.
  • Par rapport à un modèle fine-tuné : bien que spécialisé, le modèle fine-tuné ne peut pas ajuster son action en temps réel ou planifier un parcours complet.

2. Automatisation de tâches complexes interdépendantes

Les agents autonomes sont à même de gérer des flux d’activités complexes impliquant plusieurs étapes et différents systèmes. Dans une démarche de supervision de l’apprenant qui utiliserait à la fois une plateforme de formation pour des actions formelles de développement de compétences mais également des forums de discussion ou des webinaires plus informels voire des plateformes d’assessment pour mesurer sa progression et valider ses acquis, l’agent autonome pourrait s’appuyer sur un suivi proactif de l’apprenant sur les différents applicatifs utilisés pour lui adresser des notifications personnalisées ou ajuster les contenus automatiquement.

Quelle valeur ajoutée par rapport à des approches d’IA actuellement plus classiques ?

  • Par rapport à un modèle d’IA interfacé par API : l’API nécessite une orchestration par des systèmes externes ou humains. L’agent autonome intègre cette capacité d’orchestration en autonomie et décide seul des actions à réaliser.
  • Par rapport à un modèle RAG ou RIG : ces modèles fournissent des informations, mais ne prennent pas en charge l’exécution de tâches multiples ou complexes sur plusieurs systèmes.

3. Création proactive de contenus spécifiques et contextualisés

Un agent autonome analyse en temps réel les données d’un apprenant et génère ex-nihilo des contenus originaux et ciblés, adaptés à son contexte (secteur, profil, niveau, expérience, localisation…). Il pourrait ainsi concevoir des exercices ou des cas pratiques personnalisés, adapter des activités immersives, en fonction des erreurs courantes de l’apprenant incluant les meilleures pratiques métiers.

Quelle valeur ajoutée par rapport à des approches d’IA actuellement plus classiques ?

  • Par rapport à un modèle RAG : le RAG récupère et organise des contenus existants en temps réel. Il enrichit les réponses en ajoutant de la précision et de la pertinence, mais il ne crée pas directement de nouveaux contenus originaux.
  • Par rapport à un modèle RIG : Le RIG va plus loin que le RAG en intégrant les données récupérées dans le processus de génération pour produire du contenu inédit. Toutefois ce contenu reste totalement dépendant des données récupérées. Les agents autonomes, en revanche, peuvent générer des contenus réellement personnalisés et originaux en fonction des objectifs et des interactions de l’utilisateur.
  • Par rapport à un modèle fine-tuné : le modèle fine-tuné peut produire du contenu spécifique, mais il n’adapte pas ses réponses de manière proactive ou personnalisée à un apprenant donné. Les agents autonomes compensent cette limitation en intégrant des capacités de mémoire, de décision et d’adaptation en temps réel.

4. Coordination entre agents ou systèmes multiples

Un agent autonome peut collaborer avec d’autres agents pour accomplir des tâches interdépendantes. Ainsi, un agent IA pédagogique pourrait-il identifier des besoins de formation, transmettre ces informations à un agent IA de gestion des inscriptions, qui planifierait ensuite les sessions et informerait les apprenants concernés.

Quelle valeur ajoutée par rapport à des approches d’IA actuellement plus classiques ?

  • Par rapport à un modèle d’IA interfacé par API : ce modèle nécessite une programmation de chaque interaction ou tâche puis une exécution humaine ou via un système dédié.
  • Par rapport à un modèle RAG ou RIG : ces approches ne disposent pas de mécanismes pour coordonner des agents ou des systèmes multiples.

5. Suivi longitudinal et apprentissage tout au long de la vie

Les agents autonomes peuvent mémoriser l’historique complet d’un apprenant et adapter leur comportement en conséquence sur plusieurs mois voire plusieurs années. On voit ici l’intérêt dans le cadre d’une démarche de formation tout au long de la vie. Un agent IA autonome pourrait suivre l’évolution des compétences de l’apprenant et proposer des parcours adaptés à la mobilité professionnelle de l’apprenant.

Une réutilisation des données historisées optimiserait les recommandations futures (contenus, préférences…).

Quelle valeur ajoutée par rapport à des approches d’IA actuellement plus classiques ?

  • Par rapport à un modèle d’IA interfacé par API : les IA interfacées par API n’ont pas de mémoire native. Chaque interaction est donc indépendante.
  • Par rapport à un modèle RAG ou RIG : ces modèles ne construisent pas de mémoire continue ; ils se basent sur des requêtes ponctuelles.
  • Par rapport à un modèle fine-tuné : le fine-tuning ne permet pas de mettre à jour les comportements du modèle en temps réel selon les apprentissages passés.

6. Exécution autonome de tâches pédagogiques complètes

Un agent autonome peut gérer l’ensemble d’un parcours pédagogique de bout en bout. Il pourrait ainsi organiser une session de formation (inviter les apprenants, planifier les ressources, suivre la participation), proposer des évaluations, corriger automatiquement, fournir un feedback, et procéder à une remédiation si nécessaire.

Quelle valeur ajoutée par rapport à des approches d’IA actuellement plus classiques ?

  • Par rapport à un modèle d’IA interfacé par API : l’API peut automatiser des étapes d’un processus (par exemple, envoyer un email ou générer une évaluation), mais elle ne peut pas orchestrer le processus complet.
  • Par rapport à un modèle RAG ou RIG : Ces approches ne prennent pas en charge l’exécution autonome de plusieurs tâches interconnectées.

Et après-demain ?

Restons réaliste, l’adoption de l’IA générative dans les entreprises et organismes de formation en est à ses débuts. Les agents autonomes vont sans doute devenir le buzz word 2025 mais pour autant leur développement prendra du temps… et des ressources. Ce n’est pas une raison pour ne pas rêver un peu… Quelques cas pour après-demain.

6. Mais encore…

1. Apprentissage collaboratif entre agents et humains

Les agents autonomes pourraient créer, en toute autonomie, des scénarios immersifs dans lesquels plusieurs apprenants seraient invités à interagir avec un réseau d’agents autonomes interprétant des rôles variés. Ces scénarios pourraient simuler des situations complexes qui requièrent collaboration et prise de décision.

Exemple : Dans une formation en gestion de crise, les apprenants pourraient travailler avec des agents autonomes incarnant différents profils (chef d’équipe, expert technique, communicant). Chaque agent IA proposerait des pistes de solutions basées sur son rôle et son expertise et adapterait son comportement et ses propositions aux réactions du groupe d’apprenants. Contrairement aux simulations traditionnelles, les agents autonomes peuvent répondre en temps réel, ajuster leurs comportements en fonction des décisions et attitudes des apprenants, et rendre ainsi chaque session unique et totalement personnalisée.

2. Création de micro-univers d’apprentissage immersifs

Et si notre agent autonome générait un univers virtuel spécifique à chaque apprenant, qui articulerait réalité augmentée ou mixte, simulations interactives et narration individualisée ?

Exemple : un technicien en formation pourrait ainsi se retrouver dans une usine virtuelle où l’agent virtuel tel un tuteur, lui expliquerait tel ou tel processus industriel et adapterait ses explications aux actions de l’apprenant. De même, le scénario pourrait se construire en temps réel au rythme de la progression, des décisions et des attitudes de l’apprenant. Contrairement à un contenu statique ou à un module de réalité virtuelle préconçu, l’environnement évoluerait en en temps réel pour une expérience totalement sur-mesure.

3. Coaching professionnel tout au long de la vie

N’avez-vous jamais rêvé d’un coach de carrière personnel pour vous accompagner de la fin de vos études à la retraite ? On vous avait promis du rêve…
L’agent autonome suivrait vos compétences au fil des années et de votre carrière, vous proposerait des objectifs d’évolution en mettant en regard les formations complémentaires indispensables à l’atteinte de ces objectifs. Il mettrait à jour, en temps réel, votre plan de développement personnalisé au regard de vos contraintes personnelles et du marché de l’emploi…Contrairement à une IA par API ou aux LMS actuels, l’agent autonome dispose d’une mémoire à long terme et peut adapter ses conseils à des changements professionnels ou personnels.

4. Réseaux inter-agents pour formations globalisées

Et si on terminait ces cas d’usage d’après-demain par de la science-fiction ? Des agents autonomes pourraient collaborer à l’échelle mondiale pour synchroniser des formations entre différents pays ou organisations pour une adaptation réelle et opérationnelle des besoins en compétence de chaque pays à l’évolution des technologies, des modes de vie, de l’environnement physique et digital… Un réseau d’agents pourrait organiser des formations internationales adaptées aux contextes culturels et linguistiques des participants, tout en assurant une cohérence globale des objectifs. La CIA de la compétence !

Le disclaimer – Aucun système d’IA ne peut actuellement à notre connaissance orchestrer une collaboration autonome à cette échelle.

  1. À ne pas prendre pour Agent comptant

Si les perspectives et les opportunités que peuvent offrir les agents autonomes sont alléchantes, les enjeux financiers, énergétiques et éthiques sont à la hauteur des promesses.

Gouvernance

Les agents autonomes doivent opérer dans un cadre légal et éthique solide pour protéger les données sensibles, renforcer la confiance des utilisateurs et assurer une intégration harmonieuse dans l’environnement pédagogique.

Conformité

Pour éviter que les agents IA ne deviennent une source de risques juridiques ou de fuites de données, ils doivent respecter un ensemble strict de règles et de normes, parmi lesquelles, outre le RGPD :

  • l’IA Act qui adopte une approche par les risques et classe les secteurs par niveau de criticité dans l’utilisation de l’IA. La formation et l’éducation sont considérés comme des secteurs à « Haut risque » (soit le plus haut niveau de criticité, le niveau supérieur étant celui de l’interdiction de l’IA).
  • La norme ISO 27001, certification internationale de sécurité de l’information qui s’assure que les données utilisées par l’IA sont protégées par des processus robustes et des mesures techniques avancées (chiffrement, gestion des accès, etc.).

Normes éthiques

  1. Transparence et Traçabilité
    Il est essentiel et indispensable au regard de l’IA Act que chaque décision prise par un agent IA puisse être tracée et expliquée pour éviter l’effet « boîte noire » :
  • Explicabilité des algorithmes : les systèmes d’IA doivent intégrer des mécanismes d’explication (souvent appelés « Explainable AI » ou XAI) qui permettent de comprendre comment et pourquoi une réponse a été générée.
  • Traçabilité des données : chaque étape du processus de traitement des données est enregistrée pour assurer un suivi complet. En cas de problème ou de contestation, il est ainsi possible de remonter jusqu’à la source de la décision et de corriger les erreurs potentielles.
  • Documentation et reporting : la mise en place de rapports réguliers sur le fonctionnement de l’IA, suite à des audits internes, permet aux équipes de formation de garder une vue d’ensemble claire et de communiquer efficacement sur la performance et la sécurité du système.
  1. Supervision et audit

Dans ce futur de la formation optimisé par les agents autonomes, les experts, ingénieurs pédagogiques, concepteurs et formateurs occupent une place de choix pour surveiller les performances des agents IA. Ils doivent être prêts à intervenir dès qu’un bug ou un comportement inattendu est détecté, pour garantir que l’outil reste aligné avec les objectifs pédagogiques et les objectifs de formation.

De même, des équipes pluridisciplinaires (composées de data scientists, d’experts en éthique, de responsables pédagogiques et de juristes) doivent examiner les performances de l’IA dans le cadre d’audits qui visent à identifier les biais potentiels, vérifier la conformité légale et réglementaire et optimiser les processus.

En résumé, la gouvernance des agents IA autonomes repose sur une double approche : d’un côté, l’établissement d’un cadre légal et éthique robuste (conformité, transparence, traçabilité) et, de l’autre, la mise en place de stratégies de supervision et d’audit pour garantir un fonctionnement optimal. Ces mesures assurent que l’innovation technologique se conjugue avec rigueur et responsabilité.

Éco-responsabilité

L’impact écologique des IA génératives et notamment des agents autonomes, est un sujet critique dans le contexte de leur adoption croissante. Ces technologies nécessitent d’importantes ressources énergétiques[2] pour :

  • leur entraînement : on estime le coût énergétique d’entraînement d’un modèle GPT-3 à 1,3 GWh, soit l’équivalent de la consommation énergétique de 120 foyers américains moyens. La consommation est bien plus importante dans le cadre de l’entraînement d’un modèle comme GPT-4 dans lequel le nombre de paramètres est beaucoup plus importants ;
  • leur fonctionnement (l’inférence) : une consommation de plusieurs centaines de mégawattheures mensuelles à l’échelle mondiale semble faire consensus pour un modèle comme GPT-3.

Les agents autonomes qui combinent plusieurs sous-systèmes (prise de décision, mémoire, récupération et génération) ont une consommation énergétique supérieure difficile à chiffrer tant le coût énergétique dépend du volume d’interactions et du temps passé sur chaque session avec l’agent.

Pour réduire l’impact écologique des agents autonomes, quelques pistes peuvent être envisagées :

  1. L’optimisation des modèles :
    • réduire la taille des modèles en ajustant le nombre de paramètres selon les cas d’usage.
    • limiter les interactions inutiles (ex. : session plus courtes ou gestion intelligente des requêtes inutiles).
  2. Un développement éco-responsable :
    • investir dans des data centers qui tournent à 100 % sur des énergies renouvelables.
    • encourager les pratiques de mutualisation des ressources (ex. : cloud partagé entre plusieurs clients lorsque l’activité des clients le permet).
  3. L’adoption de modèles hybrides : utiliser son cerveau (cet organe sous-coté entre nos deux oreilles…) ou des modèles moins gourmands (IA stand-alone pour des tâches simples) et réserver les agents autonomes pour des cas complexes nécessitant des capacités combinées.

Investissement

Oui, déployer des agents autonomes nécessite un très gros budget de R&D, d’infrastructures et de licences mais aussi d’actualisation des algorithmes et de mesures de sécurité, qui se chiffre en centaines de milliers d’euros. Il est encore difficile de chiffrer précisément le développement et l’exploitation, d’autant que les montants peuvent varier selon les modèles et les processus balayés.

A l’investissement financier, s’ajoute le coût organisationnel avec la nécessaire réorganisation des équipes et des rôles de chacun autant que des processus et des workflows avec une énergie à ne pas négliger dans la conduite du changement et l’adhésion des équipes. Et naturellement la formation des équipes formation, des managers et des utilisateurs finaux.

Pour finir

Personnalisation poussée, automatisation intelligente et contenus immersifs contextualisés en temps réel, les agents autonomes auront sans doute le pouvoir de changer radicalement les parcours de formation et leur efficacité. Mais comme toujours, les deux règles principales restent :

  • pourquoi adopter un agent autonome ?
  • avant de maîtriser une quelconque technologie, fut-elle révolutionnaire ou supposée comme telle, il est indispensable de maîtriser le métier, en l’occurrence la pédagogie, la cognition humaine, les leviers d’engagement, les marqueurs attentionnels et tout ce qui fait de notre métier, un challenge inépuisable et sans cesse renouvelé.

Et pour une fois, on vous passera l’impératif catégorique : « mettre l’humain au cœur du dispositif » mais le cœur y est !

  1. Inférence – Processus par lequel un système déduit ou tire des conclusions à partir des informations qu’il a collectées. Si on prend le puzzle comme analogie : l’inférence, c’est l’art d’assembler les pièces pour révéler l’image complète. Dans le contexte du RIG, après la phase de recherche, le système « assemble » les données pour en extraire une signification plus riche et des recommandations pertinentes.
  2. Source chiffrée : https://www.polytechnique-insights.com/tribunes/energie/ia-generative-la-consommation-energetique-explose/