IA t’il un pilote dans le TR(AI)N ? Journée de formation à l’IPFS Namur
Nicolas Melebeck
Le 28 mars 2026, l’IPFS Namur accueillait une journée de formation consacrée à l’intelligence artificielle générative dans l’Enseignement pour adultes. Organisée par les formateurs de Technopédia — Olivier Absil, Sébastien Fasbender, Nicolas Kohen et Nicolas Melebeck —, cette journée intitulée IA t’il un pilote dans le TR(AI)N ? a réuni des enseignants déjà sensibilisés à la thématique, venus chercher des pistes concrètes pour réinventer leurs pratiques. Au programme : cadre légal, opportunités pédagogiques, stratégies d’évaluation, iconographie de l’IAg, et ateliers pratiques. Voici le compte rendu de cette journée dense.
Cadre légal : ce que RGPD et AI Act changent pour nous
La journée a débuté par un rappel indispensable : utiliser des outils d’IA en contexte éducatif, c’est aussi naviguer dans un cadre juridique en pleine évolution.
RGPD : vigilance sur les données
Lorsqu’on utilise des plateformes externes — questionnaires en ligne, outils d’IA générative, plateformes de dépôt — le chargé de cours doit s’assurer, avec l’aide du DPO de l’établissement, que l’outil offre les garanties de sécurité requises et ne réutilise pas les données à des fins commerciales. En pratique, cela implique des gestes simples mais souvent négligés : mots de passe robustes, déconnexion systématique, et prudence avec les supports amovibles non sécurisés.
Il faut également garder à l’esprit que des outils comme ChatGPT collectent des données à plusieurs niveaux : contenu utilisateur (prompts, fichiers, images), données de journal (adresse IP, type de navigateur, historique des requêtes), et informations sur l’appareil. Ces données sont notamment utilisées pour l’entraînement des modèles, la personnalisation du contenu et la conformité légale. Connaître ce fonctionnement, c’est aussi pouvoir en informer ses apprenants — une obligation de transparence que l’AI Act va renforcer.
AI Act : quatre niveaux de risque
L’AI Act, entré en vigueur en août 2024, classe les systèmes d’IA en quatre catégories selon leur impact potentiel sur les droits fondamentaux. Ce qui nous concerne directement en tant qu’enseignants : l’éducation est explicitement identifiée comme un domaine à risque élevé. Cela vise en particulier l’admission et l’accès aux établissements, l’évaluation des acquis d’apprentissage, et la surveillance des comportements des élèves.
Concrètement, nos obligations en tant qu’enseignants utilisant l’IA se résument en quatre axes :
Transparence : informer les étudiants lorsque l’IA est impliquée dans l’évaluation ou l’interaction.
Supervision humaine : assurer la validation humaine des décisions de l’IA pour éviter les erreurs.
Maîtrise de l’IA : se former pour comprendre les biais et les risques.
Droit à l’explication : fournir des explications claires sur les décisions de l’IA aux étudiants.
Un cas d’usage critique a été mis en évidence lors de la journée : déléguer intégralement l’appréciation de la Valorisation des Acquis de l’Expérience (VAE) à un agent comme ChatGPT. C’est précisément le type de pratique qui tombe sous le coup des interdictions de l’AI Act — et qui illustre pourquoi la supervision humaine n’est pas une option, mais une obligation.
Opportunités pédagogiques : l’IA comme levier, pas comme béquille
La deuxième partie de la journée a exploré les opportunités concrètes que l’IA offre à l’enseignant — à condition de garder la pédagogie supervisée par l’humain au cœur du dispositif. Les concepts de zone proximale de développement, d’étayage, de métacognition et de méthode socratique ne disparaissent pas avec l’IA : ils se réinventent.
Retours d’expériences inspirants
Plusieurs usages ont été présentés comme points de départ :
NotebookLM & Gemini pour créer des cours personnalisés et des podcasts pédagogiques.
Bookflix pour proposer des vitrines digitales de lecture adaptées à un profil d’apprenant.
Objets parlants : des textes générés par l’IA et lus à voix haute, intégrés dans des ressources de cours.
Génération de PDF pour des preuves d’activité et des exercices.
Tutorat par l’IA amenant l’apprenant à la réflexion et à l’acquisition de connaissances, sans lui donner la réponse.
Rôles multiples gérés par l’IA : centre de connaissances, membre artificiel du groupe, partenaire de brainstorming.
L’illusion pédagogique : l’IA ne remplacera pas les profs
Une étude de l’OCDE (2026) sur des lycéens turcs a montré quelque chose d’essentiel : si les étudiants pratiquant avec un tuteur IA obtenaient de meilleurs résultats lors des exercices (+127% avec GPT Tutor), leurs résultats aux examens finaux étaient, eux, inférieurs (-17% pour le groupe GPT Base). Les apprenants surestimaient leurs propres acquis, et la performance réelle s’effondrait en situation autonome.
Les gardes-fous qui font la différence : interdire à l’IA de donner directement la solution, intégrer une expertise pédagogique réelle dans les paramètres de l’agent, exiger que l’étudiant explique son raisonnement, et maintenir un langage encourageant.
Jules César le Mytho’ : l’esprit critique par l’agent conversationnel
L’un des exemples les plus marquants de la journée : créer un agent conversationnel qui mélange intentionnellement des informations vraies et fausses. L’apprenant interroge l’agent (Jules César, en l’occurrence), qui fournit des réponses « vraies » et « douteuses » — puis l’apprenant doit vérifier, croiser ses sources, et distinguer le vrai du faux. Ce dispositif valorise la métacognition, la littératie informationnelle et la responsabilité face à la technologie. Il est particulièrement puissant dans les cours où la qualité du raisonnement compte autant que le résultat final.
Pour que ce type d’agent fonctionne, quatre éléments doivent être cadrés dès le départ : le rôle exact de l’agent, les sources autorisées, le degré de fiction ou d’erreur volontaire, et les critères d’évaluation de l’étudiant.
De Word « moche » à HTML/CSS « bien »
Un autre exemple concret a illustré la valeur ajoutée de l’IA pour les apprenants : partir d’un CV produit sous Word — visuellement pauvre — et demander à l’IA de proposer une structure HTML/CSS plus claire, plus lisible et plus professionnelle. Ce type de tâche, ancré dans un usage métier direct, permet à l’apprenant de comprendre la plus-value de l’IA tout en restant auteur de son contenu.
🎙️ Récap audio de la journée (réalisé avec Notebook LM sur base de l’ensemble des documents utilisés/produits lors de la formation)
Évaluer à l’ère de l’IA : 5 stratégies pour retrouver l’authenticité
Cette partie, présentée par Nicolas Kohen, a constitué le cœur scientifique de la journée. Le constat de départ est clair : l’IA peut désormais produire des textes d’une qualité acceptable pour de nombreuses tâches d’évaluation. La course à la détection de la fraude académique devient de plus en plus futile. Il faut changer de paradigme : passer de l’évaluation du produit fini à l’évaluation du processus.
Reconnaître l’utilisation de l’IA
Avant de repenser l’évaluation, encore faut-il savoir identifier une production assistée par IA. Quelques indices linguistiques à surveiller :
Indice
Exemple
Absence de fautes
2 000 mots sans coquille ni faute d’inattention
Neutralité excessive
« Il est intéressant de noter que… »
Tonalité enthousiaste mais vide
« Cette analyse fascinante révèle des réflexions passionnantes »
Absence de métadiscours
Aucun « J’ai d’abord cru que… »
Connecteurs lourds
« En premier lieu… En second lieu… De surcroît… »
Du côté structurel : structure trop parfaite et symétrique, arguments toujours balancés (Pour / Contre / Synthèse), absence de référence aux contenus spécifiques du cours, ou encore des traces de Markdown oubliées (texte, ## titre). Précaution essentielle : aucun indice isolé ne constitue une preuve. Il faut croiser plusieurs marqueurs et connaître le niveau de référence de l’apprenant.
Stratégie 1 — La traçabilité
Rendre visible le processus d’élaboration du travail : partager des documents Google Docs dès le début, observer l’écriture progressive, les hésitations, les pauses. Des apparitions soudaines de texte (copier-coller suspect) sont un signal. Les jalons intermédiaires (plan détaillé, bibliographie annotée, premier brouillon) et la composante vidéo (screencasting) complètent le dispositif.
Stratégie 2 — L’hybridation
L’apprenant prépare en amont (avec ou sans IA), mais la validation se fait sous surveillance. La synthèse finale est réalisée en classe, sur papier ou sur ordinateur déconnecté. La soutenance orale permet également de vérifier en temps réel que l’apprenant maîtrise réellement ce qu’il a produit — une compétence que l’IA ne peut pas simuler à sa place.
Stratégie 3 — Le design anti-IA
Concevoir des consignes qui jouent sur les faiblesses de l’IA : ancrer les évaluations dans des expériences personnelles ou des contextes locaux que l’IA ne connaît pas, intégrer des contenus spécifiques au cours (« liez ce devoir à ce qui a été dit en classe le 28 mars »), diversifier les livrables (carte mentale manuscrite, podcast, maquette, animation). L’IA excelle dans les tâches de routine ; elle peine dans l’analyse dépendante d’un contexte inédit.
Stratégie 4 — L’intégration
Au lieu d’interdire, utiliser l’IA comme objet d’étude. Demander aux apprenants d’identifier les erreurs factuelles et les hallucinations dans un texte généré, de repérer les biais, d’améliorer le style et d’apporter la nuance manquante. Ce qui est évalué : la qualité des prompts, la documentation du processus, et la valeur ajoutée humaine.
Stratégie 5 — La méthode Sandwich
Une approche structurée en trois temps : Humain → IA → Humain. L’apprenant établit d’abord le plan et la structure (étape humaine), utilise ensuite l’IA pour le brainstorming ou la reformulation (étape IA), puis réécrit, vérifie et apporte sa valeur personnelle (étape humaine). L’évaluation porte sur la clarté conceptuelle des prompts, la transparence du processus, et le jugement critique dans la réécriture finale.
Iconographie de l’IAg : déclarer son usage, un geste professionnel
Présentée par Olivier Absil, cette partie de la journée a introduit un système de déclaration visuelle conçu pour normaliser l’usage de l’IA générative dans les productions académiques et professionnelles. L’objectif est triple : informer précisément sur le niveau d’implication de l’IA, responsabiliser lors de la création de contenus, et différencier clairement les pratiques — de l’absence totale d’IA jusqu’à une production majoritairement automatisée.
Contribution significative de l’IA ; texte partiellement généré ou reformulé
Assistance majeure
Contenu presque intégralement produit par l’IA
Les pictogrammes associés à ces niveaux sont téléchargeables gratuitement, disponibles en format normal ou compact, et proposés sous licence Creative Commons BY-ND 4.0. La bonne pratique recommandée : les associer à un hyperlien pointant vers la page d’explication officielle de l’UQAC.
Ce qu’en pensent les enseignants : retours des tables rondes
Plusieurs tables rondes ont permis de recueillir les réflexions des enseignants de l’IPFS Namur avant et pendant la journée. En voici les grandes lignes.
Sur l’esprit critique et la littératie IA
Les échanges ont tourné autour de deux questions fondamentales : un expert qui ne sait pas détecter une hallucination de l’IA est-il encore un expert ? et comment tester la capacité d’un apprenant à contredire la machine ? Les participants ont insisté sur la nécessité de croiser les sources, de justifier ses choix, et d’identifier ce qui est fiable de ce qui ne l’est pas. L’alignement pédagogique a été identifié comme un garde-fou essentiel pour guider l’usage autorisé ou non de l’IA au sein d’un cours.
Sur la posture du formateur
Un consensus s’est dégagé : il est désormais impossible de ne pas utiliser les outils d’IA. La posture doit évoluer. Le formateur reste un coach, un accompagnateur et le garant du dispositif — « maître à bord » — tout en acceptant de se remettre en question. L’usage de l’IA doit être cadré, avec des limites claires, et les nouvelles compétences pédagogiques à développer incluent la validation des compétences et la construction du savoir plutôt que la simple transmission.
Sur l’évaluation et la charte IA
Vers une charte institutionnelle — voici les axes qui ont émergé des échanges :
Transparence : définir quand et comment l’IA est autorisée en cours.
Responsabilité : l’apprenant reste responsable de la production finale et de la vérification des sources.
Éthique : sensibiliser aux biais de l’IA et à la protection des données.
Accompagnement : garantir que chaque apprenant reçoive une base commune de compétences en prompting pour éviter les inégalités.
Processus central : faire en sorte que le processus et son évaluation deviennent le cœur de l’apprentissage.
L’ensemble des ressources partagées lors de cette journée — supports, liens, outils et références — est disponible dans notre espace OneDrive partagé :
Cet article a été rédigé par Nicolas Melebeck, formateur chez Technopédia (CPEONS). La journée de formation a été co-animée avec Olivier Absil, Sébastien Fasbender et Nicolas Kohen.
Laisser un commentaire