Esprit critique, es-tu l’IA ?

Avec l’essor des intelligences artificielles et plus particulièrement des robots conversationnels, l’Enseignement pour Adultes aussi se questionne :

  • « Quelle est encore l’utilité des épreuves écrites ? »
  • « Pourrions-nous réaliser des cours entiers organisés et supervisés par l’IA sous le regard bienveillant d’un chargé de cours ? « 
  • « Les étudiants ne vont plus réfléchir, ça va être catastrophique. »

Maintenir un esprit critique est régulièrement avancé comme un remède pour assurer le contrôle par rapport à ce changement technologique à haut impact social.
Je vous propose alors de voir comment l’esprit critique peut être travaillé en questionnant les valeurs véhiculées tant par l’Enseignement pour Adultes que par les fournisseurs des Intelligences Artificielles. Personne n’a dit que l’esprit critique était de tout repos.

Avant de continuer, mettons-nous d’accord sur les termes employés afin d’éviter les confusions. Sans autre analyse, voici quelques définitions liées à la sémantique de l’esprit critique.

Critique, adjectif

Qui a pour objet de discerner les qualités et les défauts d’une œuvre, la valeur, l’exactitude ou l’authenticité d’un texte, d’une déclaration, d’un fait, etc. : Méthode critique. (Larousse)

Esprit critique
Esprit de libre examen qui n’accepte aucune affirmation sans s’interroger sur sa valeur ; tendance à relever tous les défauts d’une œuvre, d’une personne ; promptitude à critiquer ; personne qui fait preuve de cette disposition d’esprit. (Larousse)

« Il existe plusieurs définitions de ce que l’on peut entendre par “esprit critique” dans la littérature. Leur dénominateur commun est de [le] définir comme la capacité à évaluer correctement les contenus et les sources des informations à notre disposition afin de mieux juger, mieux raisonner, ou prendre de meilleures décisions. Évaluer la qualité épistémique d’une information consiste à déterminer si l’information a de bonnes chances de correspondre à la réalité, donc si elle mérite notre confiance. Nous pouvons donc définir l’esprit critique comme la capacité à faire confiance à bon escient, après évaluation de la qualité des informations, opinions, connaissances à notre disposition, y compris les nôtres. » Bronner (2022, in Halimi-Falkowicz et al. (2023, p.13))

L’esprit critique, ça se travaille ?

Selon Halimi-Falkowicz et ses collègues (2023), l’esprit critique relève de nombreux facteurs liés à des traits de personnalité favorisant son développement : la curiosité et l’humilité intellectuelle, désir de vérité et tendance à trouver du plaisir dans l’effort cognitif notamment.

Effectivement, si l’acceptation de rumeurs ou d’informations non vérifiées me permet de gagner du temps dans une société où l’on court après, il est certainement plus « rentable » de laisser l’esprit critique de côté. De plus, si l’effort cognitif est énergivore, il est encore plus facile de se laisser bercer par les informations prépondérantes dans la société ou pourquoi pas amenées par une IA bienveillante qui me garantit avoir raison. Qui suis-je pour en douter et remettre en question un programme dopé aux hormones binaires et qui a ingurgité tout le savoir écrit de l’humanité (sélectionné avec soin par les entreprises dans un but purement bienveillant pour le bien-être de l’humanité) ?

La marge de manœuvre se situe dans le développement de comportements adaptés et favorisant la remise en question.

Changement de comportement face à l’esprit critique ?

  • C’est bien beau, mais ça se change comment un comportement dans le but de développer un esprit critique ? Et pourquoi je devrais changer? Ce sont les services secrets qui vous envoient? Je doute de tout, je doute de vous!
  • Wow, wow, on se calme.

On est d’accord l’esprit critique, c’est douter oui, mais de manière raisonnable.

Comportement

Manière d’être, d’agir ou de réagir des êtres humains (Larousse).

Certaines compétences nécessitent un accompagnement dès le plus jeune âge : sensibilisation à la remise en question, apprendre à vérifier les sources et usage critique des médias. Nous vous parlions de comportements à développer, voici quelques pistes à explorer :

  • Permettre aux apprenants d’apprendre à penser par eux-même par la critique et l’argumentation ;
  • Développer l’écoute active personnelle et interpersonnelle afin que chacun puisse s’exprimer et amener l’autre (et soi) à prendre du recul sur ses pensées et biais cognitifs ;
  • Prendre une grande respiration (c’est un comportement aussi) lorsqu’une vérité m’est imposée avant de décider si je m’y engage aussi ou si je prends un peu de recul ;
  • Apprendre à s’affirmer. Si je ne suis pas capable de m’affirmer face aux autres, comment puis-je m’affirmer face aux fake-news et informations générées par une IA ? Je vous conseille la lecture du livre de Charly Cungi : « Savoir s’affirmer en toutes circonstances ». Plus qu’un livre c’est un outil méthodologique d’utilité publique (rien que ça!) ;
  • Développer la bienveillance et l’empathie : en ne rejetant pas sans comprendre, en n’évacuant pas d’un geste de la main les idées des autres, nous favorisons le développement de l’esprit critique ;
  • Choisir un cadre de pensée que l’on sait basé sur la remise en question constante et l’argumentation. La pensée scientifique comme base de la réflexion est un bon point de départ même si elle peut également être orientée par des valeurs contraires à la pensée critique ;
  • Accepter d’opposer des idées contraires ;
  • Définir et comparer son système de valeurs à celui imposé volontairement ou involontairement.

Vous allez me dire « quel est l’intérêt de questionner ses valeurs face à l’intelligence artificielle ? ». Il est illusoire de croire que les robots conversationnels et autres IA seront exempts d’impacts sur la société. Et la société est elle-même définie par un ensemble de systèmes et sous-systèmes composés d’un nombre impressionnant d’éléments interconnectés composés d’une seule et même composante : l’individu, ce qui en fait un système incroyablement riche et complexe. L’individu interconnecté constitue la famille, le quartier, l’établissement scolaire, le gouvernement, bref vous m’aurez suivi : l’ensemble des éléments structurants de notre société.

À partir du moment où l’individu se questionne sur ses valeurs, il questionne alors tous les niveaux de la société. Afin de mieux appréhender les intelligences artificielles, on peut se demander si les objectifs des développeurs des IA sont alignés avec les valeurs individuelles et de l’Enseignement pour Adultes qui concentre notre propos.

Outils pour l’usage critique des médias

Il est intéressant de savoir que la Fédération Wallonie-Bruxelles a permis la création dès 2008 du Conseil supérieur de l’Éducation aux Médias. L’un de ces objectifs étant le développement de l’esprit critique face aux médias, il semble naturel d’y retrouver des ressources face à l’émergence des intelligences artificielles comme le Carnet 13 – Les intelligences artificielles, comment mieux les comprendre ? qui peut être un outil à disposition pour lancer le débat auprès de nos salles de classe.

Les valeurs de l’Enseignement pour Adultes

Valeurs

  • Ce qui est posé comme vrai, beau, bien, d’un point de vue personnel ou selon les critères d’une société et qui est donné comme un idéal à atteindre, comme quelque chose à défendre.
  • Importance, prix attaché subjectivement à quelque chose.

En se basant sur le Décret organisant l’Enseignement de Promotion Sociale (1991), nous pouvons dégager des valeurs soutenues par l’Enseignement pour Adultes :

  • L’épanouissement individuel et l’insertion socio-professionnelle ;
  • La réponse aux besoins de la société et de l’économie ;
  • L’accessibilité et la flexibilité ;
  • La reconnaissance des acquis et de l’expérience ;
  • L’accompagnement pédagogique des étudiants.

Ces valeurs orientent les actions et peuvent être questionnées afin de s’assurer que les actions et usages des technologies répondent ou entravent ces valeurs.

Les valeurs liées au monde technologiques et des intelligences artificielles

De manière globale, les « Géants de la Tech » de la Silicon Valley basent leur renommée sur un processus commercial rôdé depuis Steve Job : le storytelling. Son objectif est de faire en sorte que l’utilisateur final s’identifie à un monde imagé, narratif, facilement intégrable. Cette technique marketing est particulièrement efficace car le monde est raconté depuis toujours et la culture du héros qui se pose en sauveur de l’humanité contre des vilains est largement véhiculée et renforcée par le milieu du cinéma notamment. Qui n’a pas un jour rêvé d’avoir de super-pouvoirs permettant de se surpasser, de devenir meilleur pour faire le bien évidemment ? Rappelez-moi comment est symbolisée l’IA sur de nombreuses plateformes ? Une baguette magique, oui! Et la magie, ça ne s’explique pas !

Le risque majeur est d’oublier que l’objectif annoncé derrière « Sauver l’humanité » n’est certainement autre que « maximiser les profits et assurer un maximum de temps d’écran » même si c’est en mentant un peu sur la réalité. Cela peut également être associé à la technique du green-washing qui consiste à dire de manière assez sarcastique : « Regardez par ici comme on agit bien pour le bien de tous mais surtout ne regardez pas de ce côté car c’est pas très joli-joli ».

Dans cette lignée d’amélioration, de supers-pouvoir et de bien pour l’humanité, le transhumanisme est le Graal. Si vous n’en avez pas encore entendu parler, le transhumanisme est un rêve des plus grands milliardaires du monde d’arriver à un Homme augmenté, amélioré qui serait à terme éternel quitte à transférer son savoir génétique, biologique dans une machine. Exosquelettes, implants cérébraux, robots commandés par ondes cérébrales, sauvegarde de nos souvenirs sur une puce sont autant de projets ultra-financés quitte à ne pas se soucier des effets éthiques et limites médicales (Zerah, 2024). L’Unesco s’en inquiète et relève au moins deux risques majeurs : l’usage des données neuronales à des fins marketing et l’écart des inégalités sociales si les neurotechnologies ne sont accessibles qu’aux groupes sociaux les plus aisés (Unesco, s.d.).

Et les intelligences artificielles dans tout ça ? Qu’est-ce que ça à voir avec les valeurs de l’Enseignement pour Adultes ? La percée des intelligences artificielles dans le quotidien de tous à une vitesse jamais égalée dans le monde technologique impacte tous les niveaux de la société avant que tout système de régulation n’ait eu le temps d’être posé. Questionner les valeurs est donc un moyen comme un autre de s’approprier ces outils en connaissance de cause.

Intéressons-nous aux messages marketing proposés par les IA les plus connues :

OpenAI se positionne comme un pionnier cherchant à atteindre l’Intelligence Artificielle Générale (AGI) « bénéfique pour toute l’humanité ».

« Our mission is to ensure that artificial general intelligence benefits all of humanity. »

Microsoft Copilot augmente votre productivité en vous permettant de réaliser des tâches complexes en moins de temps en vous aidant à rédiger et accélérer le flux de travail.

« Boostez votre organisation grâce à Copilot. »

Gemini de Google quant à lui est là pour « aider » à comprendre le monde, à créer, à apprendre. Il doit nous amener à mieux penser sans pour autant augmenter notre temps de réflexion. Encore une fois donc, être plus productif.

« Réfléchissez mieux sans réfléchir plus. »

De manière générale, nous retrouvons cette idée d’améliorer, d’augmenter nos capacités, d’être plus productifs en moins de temps. En parcourant les principes fondateurs des différentes sociétés, elles se disent toutes conscientes de leurs responsabilités et de l’impact global sur la société. A nos décideurs politiques de s’assurer qu’il ne s’agit pas là d’une forme de green-washing : « regardez comme nous sommes vertueux ».

Certaines décisions plus ou moins audacieuses peuvent alors être prises en connaissance de cause. À titre d’exemple, l’état français et par conséquent l’éducation nationale française a décidé de se passer des grands groupes américains dans sa stratégie numérique en se tournant exclusivement vers des solutions open-source dans le but de préserver la maîtrise, la pérennité et l’indépendance de leurs systèmes d’information. Dans cette optique, Lucie, un modèle de langage open-source français se positionne pour concurrencer les « grands modèles de langages américains et chinois » mais force est de constater qu’il est difficile de rivaliser quand Microsoft injecte plusieurs dizaines de milliards dans OpenAI là où le budget d’investissement en France en 2021 est estimé à 77 millions pour financer un programme d’équipements prioritaires et de recherche dans le domaine de l’« Enseignement et numérique ». David contre Goliath. Pour information, Lucie a été considérée comme un fiasco par une certaine presse. Malgré les ambitions, lors de la connexion à Lucie, un encart nous rappelle que l’IA est en cours d’apprentissage et ne pourra certainement jamais rivaliser avec ChatGPT.

Les valeurs véhiculées par les concepteurs des IA relèvent d’une augmentation des capacités humaines en déléguant le processus complexe de pensée dans un but productiviste dans le monde professionnel. De plus, les grands groupes restent souvent évasifs sur leurs impacts réels dans les domaines sociaux, économiques et écologiques tout en promouvant une amélioration majeure pour la société toute entière. « Ne regardez pas par là, c’est pas très joli-joli ».

Sommes-nous toujours alignés avec les valeurs de l’Enseignement pour Adultes ? Vous vous rendez compte que ce process complexe n’est pas si évident que de demander à une IA : « Peux-tu adapter tous nos textes de lois pour s’assurer du respect des valeurs prônées par notre société humaine ».

Se renseigner pour rester critique

Face à l’effet « Waouw! » provoqué par la rapidité, l’efficacité et l’évolution ultra-rapide des robots conversationnels et l’IA, l’Enseignement pour Adultes va devoir se repositionner mais je pense que cela doit se faire de manière progressive et réfléchie. Certains repensent déjà la formation par l’usage massif d’IA dans le processus d’enseignement/apprentissage. Cependant, L’État des lieux de l’Enseignement de Promotion Sociale (2023) attire notre attention sur les usages actuels qui doivent évoluer car les pratiques sont encore majoritairement éloignées des possibilités d’amélioration rendues possibles grâce au numérique éducatif. Beaucoup se situent soit dans le refus du numérique soit à un niveau proche de la substitution. Pourtant, nous ne pouvons pas espérer une amélioration de l’apprentissage si nous utilisons le numérique pour faire « comme avant ».

Diagnostic sur l’usage des « Outils digitaux et hybridation », p. 29

« Les acteurs consultés estiment qu’à ce stade une large part d’établissements ont recours à des plateformes d’apprentissage (Moodle, Teams, …), avec cependant un usage demeurant selon certains acteurs principalement lié à du dépôt de cours en ligne et une « assistance » digitale des apprentissages. Les usages « transformatifs » du digital, dont l’hybridation, reviennent comme déployés pour le moment à une échelle moindre, notamment par rapport au niveau retrouvé chez certains opérateurs de formation pour adultes internationaux. L’adoption des usages transformatifs des outils digitaux, dont l’hybridation, semble se heurter à deux obstacles principaux :

  • Le développement insuffisant des compétences et de la motivation des enseignants, avec la difficulté à « attirer » des enseignants dans les formations et une réticence d’une partie des enseignants à l’adoption des outils digitaux, suite notamment au contrecoup de l’adoption « forcée » ayant pris place durant la période Covid ;
  • Le développement insuffisant de contenus pédagogiques digitaux et/ou hybrides de qualité, avec notamment un questionnement partagé par une majorité d’acteurs concernant la capacité du modèle actuel (mis en place par le CRP) à permettre un développement « à l’échelle » de modules hybrides de qualité.« 

Ce diagnostic peut être mis en relation avec l’analyse réalisée en 2018 par Digital Wallonia selon laquelle « (…) lorsque les enseignants doivent apprécier leur sentiment de compétence face au numérique, ils sont seulement 36% à estimer avoir de bonnes connaissances au niveau technique, 57% disent “se débrouiller” et 7% avancent n’avoir aucune connaissance. Au niveau des compétences techno-pédagogiques, les taux correspondants sont de 29%, 57% et 14%. »

Si l’étude commence à dater et mériterait une actualisation, on peut aisément penser que l’usage du numérique éducatif avec une valeur transformative reste l’apanage de quelques-uns et n’aurait qu’un impact faible sur l’ensemble des formations organisées. De là à déléguer un processus complet de formation à une IA… Et pourtant.

Pourtant, certains outils vont commencer à être disponibles sur le sol Européen comme « LearnAbout » , un outil made in Google dont l’objectif est de vous apprendre tout ce que vous voulez apprendre. Il suffit de demander et l’IA vous concocte en moins de 10 secondes un recueil des meilleures ressources, crée des quiz de compréhension et vous invite à explorer d’autres perspectives non envisagées. Redoutable.

Comment garder la main face à tant d’efficacité externe ?

Grâce au questionnement des valeurs, nous avons vu que les objectifs des IA sont productivistes malgré un discours marketing penchant vers une amélioration significative pour l’Humanité. En déléguant l’ensemble d’un processus d’enseignement-apprentissage, favorisons-nous l’épanouissement personnel et assurons-nous un accompagnement pédagogique reconnu par les acteurs de terrain ? En rendant des citoyens dépendant d’IA externalisant tout le savoir et les mécanismes complexes de pensées et de réflexion, favorisons-nous les besoins sociétaux, économiques et l’insertion socio-professionnelle ?

À l’échelle de l’Enseignement pour Adultes, les IA nous obligent à revenir aux fondamentaux de l’enseignement : la compréhension des mécanismes d’apprentissages, l’utilisation efficace des dossiers pédagogiques, l’alignement pédagogique, la nécessité de scénariser. Oui, je sais, ça ne fait pas rêver tout le monde. Malgré tout, par la scénarisation je peux envisager l’IA comme un outil pédagogique qui pourra me seconder à un moment ou l’autre. Je peux par exemple paramétrer un robot conversationnel pour qu’il m’aide à réaliser une certaine tâche répétitive mais aussi pour questionner continuellement mon point de vue sans pour autant que le robot ne m’impose une solution toute faite. La difficulté réside dans le bon paramétrage afin de limiter les biais inévitables. Une fois que je maîtrise cela pour moi, je peux également envisager des activités secondées par l’IA pour les étudiants à l’aide par exemple d’agents personnalisés qui auront pour but de développer la métacognition, d’améliorer une compétence par l’analyse du travail de l’étudiant à partir d’une grille fournie à l’IA, etc. A condition bien sûr de maîtriser la programmation des robots conversationnels et ne pas se laisser happer par la force de frappe des robots génératifs.

Nous ne sommes qu’au début et cela nécessite de se positionner car l’IA n’a pas demandé pour s’imposer à nous. C’est à chacun de définir à quel point il est prêt à laisser les robots conversationnels choisir pour lui, à quel point il a besoin de formations, à quel point il peut prendre la main pour programmer les IA vers un usage pédagogique. A vous de choisir en conscience, ce que l’IA est incapable de faire.

En conclusion, je vous dirais de ne surtout pas me croire, je ne suis qu’un humain. Venez plutôt confronter votre point de vue lors de l’une de nos formations ou demandez votre formation personnalisée – Formations à destination des membres du personnel de l’Enseignement pour Adultes faisant partie du réseau CPEONS.

Au plaisir de vous y croiser et de débattre ensemble.

Références


Publié

dans

,

par

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *