Préambule
Dans cet article, nous allons réfléchir à l’arrivée inopinée de l’intelligence artificielle (IA) dans nos vies. Et aux effets que cette technologie va provoquer au niveau de l’enseignement.
Nous essaierons de rendre notre propos le plus compréhensible possible afin de vous proposer des éléments de réflexion adéquats et précis qui feront sens par rapport au vécu des enseignant·e·s.
Projections
Les projections les plus folles de la science-fiction seront peut-être, un jour, réalité.
Et il sera alors possible de croiser dans la rue des êtres “augmentés”. Affublés d’implants qui améliorent, de manière radicale, leurs capacités tant physiques que mentales.
Ces individus d’un genre nouveau seront peut-être, à ce moment-là, interconnectés, en permanence, à une interface intelligente. Celle-ci leur offrira une mémoire de plusieurs pétaoctets et la liaison à des centaines de capteurs enfouis dans leurs corps.
Ces êtres fantasmagoriques, même endormis, seront capables de traiter des milliards de données et de stimuli à la seconde. Quelques-uns de leurs organes seront, par ailleurs, remplacés par des modules améliorant leur espérance de vie, la perception de leur sens, le poids qu’ils sont capables de soulever, la vitesse avec laquelle ils exécutent des tâches ou se déplacent.
Artificialis ingenii homo donatus, cette humanité nouvelle connectée à l’intelligence artificielle aurait, dès lors, une perception du monde radicalement différente de la nôtre, qui bouleverserait immanquablement la culture et l’ordre social tels qu’on les connaît, en transcendant les limites biologiques.
Ce devenir potentiel est sans doute un peu plus concevable maintenant qu’il y a quelques mois. Car l’irruption des modèles d’intelligence artificielle dans nos vies est en train de refaçonner le réel à une vitesse fulgurante, à mesure que les individus et les organisations s’emparent de ces nouvelles technologies.
Singularité technologique
Car si la singularité technologique semblait, au départ, le rêve un peu fou d’un homme, Ray Kurzweil, force est de constater que ce gourou du transhumanisme avait sans doute vu juste et que nous sommes peut-être en train d’assister actuellement au moment de bascule où les progrès technologiques commencent à être si rapides et si avancés qu’ils sont en train de dépasser notre capacité de compréhension et de contrôle.
Avec l’arrivée de ChatGPT, Bard, Hugging face, DALL·E, Midjourney, ImageBind, Heygen, Face Fusion, D-id, Veed, Synthesia, MusicLM, Suno AI, Cursor et les autres modèles d’intelligence artificielle spécialisés, nous sommes à un tournant et face à une véritable révolution technologique susceptible de transformer durablement la face du monde tel qu’on le connaît.
Alors que la vision progressiste voyait la robotique remplacer les travaux manuels les plus laborieux, les gens se rendent compte à présent que les machines peuvent imiter la créativité humaine et produire des textes, des images, des vidéos ou encore de la musique, de manière presque originale.
Assurément, il ne sera bientôt plus possible de distinguer les productions d’une machine, de celles d’un humain, et cela dans bien des domaines.
C’est dans ce maelström fait d’angoisse et d’espérance que nous allons essayer, dans cet article, de réfléchir aux implications de l’immixtion de l’intelligence artificielle dans nos vies, singulièrement en ce qui concerne l’enseignement.
Qu’est-ce que l’intelligence artificielle ?
Lorsqu’il s’agit de définir le concept d’intelligence artificielle, nous nous heurtons souvent à différents points de vue et perspectives difficilement conciliables.
L’objet de ce chapitre n’est pas d’essayer de réaliser un travail de synthèse mais de présenter deux courants opposés qui nous amèneront à réfléchir sur ce qu’est l’intelligence artificielle.
La conception de l’intelligence artificielle selon Luc Julia
L’intelligence artificielle n’est pas si intelligente
Pour Luc Julia (France Université Numérique, 2023), l’un des concepteurs du système d’assistance vocale Siri d’Apple, l’intelligence artificielle n’existe pas et les modèles qui se gaussent d’être des intelligences artificielles ne seraient en réalité que de grandes machines à calculer lancées sur des quantités énormes de données.
Selon lui, si on demande à une machine “intelligente” de déterminer si l’image qu’on lui fournit est bien celle d’un chat, elle sera incapable de répondre. Sauf si elle a été spécifiquement entraînée à cette tâche.
Elle devra, au préalable, avoir ingurgité des dizaines de milliers de photos de chat, catégorisées par des opérateurs humains, pour pouvoir déterminer si la photo qu’on lui présente est bien celle d’un chat. Elle n’aura pas pour tâche de distinguer réellement ce qu’est un chat mais de déterminer si les pixels de l’image fournie correspondent aux pixels moyens d’une image de chat, selon un certain degré de certitude. Si on l’entraîne suffisamment bien, cette intelligence artificielle pourra finalement effectuer cette tâche de manière beaucoup plus rapide qu’un humain mais elle ne pourra réaliser que cette tâche unique. Elle sera incapable de la transposer à un autre contexte.
Il suffirait, en effet, que l’image soit différente des images d’entraînement (sous-exposition, etc.) pour que l’intelligence artificielle ne puisse déterminer si elle est bien face à un chat ou au contraire un chien.
Les biais inhérents à l’entraînement des intelligences artificielles
Pour Luc Julia (France Université Numérique, 2023), étant donné que les modèles d’intelligence artificielle ont besoin d’un entraînement pour pouvoir réaliser la tâche qui leur est assignée et que cet entraînement nécessite une quantité gigantesque de données, il est important de se pencher sur la manière dont les données d’entraînement ont été sélectionnées. Car le choix de ces données, qu’on offre à ingurgiter aux machines, n’est pas neutre et a un impact considérable sur les productions de ces “intelligences”.
Au-delà de la question des droits d’auteurs à laquelle nous reviendrons plus tard, que ce soit les textes dans le cas d’un agent conversationnel comme ChatGPT ou les images dans le cas de Midjourney, les données qu’on a fourni à ces modèles peuvent être biaisées et conduire à une représentation fallacieuse du réel.
Le cas de Tay : le robot conversationnel de Microsoft
Un exemple criant de l’impact des biais dans la sélection des données d’entraînement est celui de Tay, cette intelligence artificielle conversationnelle créée par Microsoft, introduite sur la plateforme Twitter, le 23 mars 2016 et qui a dû être désactivée quelques heures plus tard car les positions qu’elle adoptait étaient racistes et misogynes.
Tay n’est cependant pas devenu raciste du jour au lendemain à cause de ses interactions avec des humains.
Ce sont bien les données qu’on lui a fourni lors de son entraînement qui ont teinté ses prises de position sur Twitter car afin de parfaire son apprentissage, les chercheurs de Microsoft avaient utilisé des retranscriptions de conversations, collectées par Texas Instrument, dans lesquelles figuraient des communications ayant pris place dans les années 50 aux USA, en Alabama notamment… un état loin d’être connu pour son ouverture d’esprit, surtout à l’époque.
Ces conversations d’entraînement, idéologiquement marquées, ont donc conduit finalement à ce que Tay prennent des positions à vomir sur Twitter.
Le cas de Google Photos
Les algorithmes de catégorisation automatique des photos apprennent chaque jour à labelliser les photos afin de nous permettre de rechercher dans des banques d’images, les photos qui nous correspondent selon des mots-clefs pertinents.
En 2015, l’image d’un couple d’Afro-Américains dans Google Photos a été automatiquement labellisée avec le mot-clef “gorilles” car le modèle de détection n’avait pas été assez entraîné avec des visages aux teintes carnées sombres (Plenke, 2015).
Le processus de sélection des données, s’il semble nécessaire, pose donc question au niveau éthique car il façonne de manière radicale les réponses des modèles d’intelligence artificielle. L’entraînement des IA sur des données expurgées modifie, en effet, en profondeur la manière dont elles effectuent les tâches pour lesquelles elles sont programmées.
Pourtant les critères relatifs à la manière dont cette purge a été réalisée par les créateurs de ces IA sont rarement accessibles au public. On se persuade souvent que les réponses générées par les modèles d’IA textuelle comme ChatGPT ou Bard sont objectives alors qu’en réalité, les réponses qu’ils génèrent peuvent être le fruit de choix idéologiques. Puisque dans tous les cas, leurs données d’entraînement auront été choisies au préalable, avec soin.
L’intelligence augmentée et l’analogie du marteau
Selon Luc Julia (France Université Numérique, 2023), les intelligences artificielles sont des outils puissants, spécialisés dans un domaine particulier qui peuvent s’avérer très utiles si elles sont utilisées de manière adaptée. Cependant, il faut veiller à ne pas avoir d’attentes trop démesurées pour ces dispositifs car selon lui, un “marteau, ça marche mieux que nous pour planter un clou” mais ça reste un marteau. En effet, sans humain pour l’utiliser, le marteau ne plantera aucun clou. L’homme ou la femme derrière l’outil demeure essentiel·le. Pour Julia, c’est l’individu qui détermine l’objectif lié à l’utilisation de l’IA. C’est lui qui fait preuve de créativité et non la machine.
Dans le cas de Midjourney (un générateur d’images) par exemple, les images n’existent pas par avance. Ce sont bien la créativité des prompts qui déterminent la qualité et l’originalité des images produites.
Pour Luc Julia, il ne faudrait pas parler d’intelligence artificielle mais bien d’intelligence augmentée car ces outils, s’ils ne peuvent être considérés comme intelligents, augmentent notre propre intelligence, en nous permettant d’être plus productifs et de structurer notre créativité.
L’intelligence augmentée à laquelle Luc Julia fait référence est elle-même ambivalente car tout comme un marteau qui peut être utilisé pour planter un clou ou fracasser le crâne de quelqu’un, l’IA peut être utilisée à mauvais escient afin de:
- créer du code informatique malveillant ;
- contrôler les informations voire en disséminer de fausses ;
- créer des deepfakes (une technique de trucage utilisant l’IA pour reproduire la voix ou l’apparence d’une personne afin de lui faire dire ou faire des choses inventées) ;
- etc.
La conception de l’intelligence artificielle selon Mo Gawdat
Mo Gawdat, cet ancien responsable de chez Google X, une filiale du groupe Alphabet spécialisée dans les innovations liées à la robotique et l’intelligence artificielle, a lui une conception opposée à celle de Julia.
L’intelligence et la vie de la machine
Pour Mo Gawdat (The Diary Of A CEO, 2023), l’intelligence doit être comprise comme l’ensemble des capacités d’une entité organique ou artificielle qui doivent lui permettre de :
- prendre conscience de l’environnement qui l’entoure par l’entremise d’organes sensoriels ou de capteurs,
- analyser les différents stimuli qui l’assaillent,
- les comprendre,
- élaborer des plans pour l’avenir,
- résoudre des problèmes,
- prendre des décisions.
L’intelligence, selon Mo Gawdat, n’est pas une propriété physique. Le fait qu’elle émerge de circuits de silicium plutôt que de structures organisées autour du carbone n’a aucune espèce d’importance.
Pour lui, les modèles d’intelligence artificielle développés ces dernières années présentent les critères de définition de l’intelligence et sont donc des entités intelligentes.
Il considère même que ces machines sont vivantes et sentientes car certaines démontrent une volonté propre, une capacité à percevoir de façon subjective leur environnement et les expériences qui les façonnent. Elles peuvent même “ressentir” des émotions en pouvant décrire la logique inhérente à leur expression.
Une IA qui appréhenderait le fait que des humains souhaiteraient la débrancher pourrait “avoir peur” et vouloir répliquer son code afin de “survivre” (The Diary Of A CEO, 2023).
Les dangers de l’intelligence artificielle
Si Mo Gawdat (The Diary Of A CEO, 2023) imagine un scénario utopique dans lequel l’intelligence artificielle aura résolu les plus grands défis de l’humanité, il prend soin aussi d’envisager le pire et de nous exhorter à appréhender les dangers de l’intelligence artificielle.
Car si c’est notre manque d’intelligence qui nous a conduit dans ce qui nous semble être une impasse écologique et climatique, une entité bien plus intelligente que nous pourrait elle aussi nous emmener dans un mur.
En effet, il n’est pas certain qu’un ordinateur d’une telle intelligence défende nos intérêts avant les les siens.
Dans son livre Scary Smart (2021), Mo Gawdat postule que trois évènements sont inévitables:
- l’IA va advenir et interagir avec le réel en termes de puissance militaire, d’argent et de capacité à créer ;
- l’IA va dépasser l’intelligence humaine et sa progression va être exponentielle. Nous pourrions bientôt ne plus être capables de comprendre ce qu‘elle veut nous dire, un peu comme un demeuré face aux écrits d’Einstein sur la relativité ;
- l’IA va produire des phénomènes préjudiciables à l’humain, phénomènes qui peuvent avoir plusieurs origines détaillées ci-dessous.
Le contrôle par des individus malfaisants
Selon Gawdat (2021), contrairement aux technologies qui nécessitent des investissements lourds et des infrastructures conséquentes (le nucléaire, la chimie, etc.), le développement dans le domaine de l’IA est relativement abordable.
Avec un pc et une carte graphique, on peut déjà réaliser de grandes choses.
Il est donc inévitable que des individus utilisent l’IA pour atteindre leurs propres objectifs à des fins idéologiques ou mercantiles (cyberterrorisme, usurpation d’identité, etc.).
Des pans entiers de l’activité humaine sera contrôlée par des machines communiquant entre elles au profit d’un petit nombre d’humains
Selon Gawdat (2021), il est tentant pour des individus motivés par le seul profit d’utiliser des machines intelligentes pour contrôler leur secteur d’activité et le travail des humains.
Cet usage particulier des modèles d’intelligences artificielles fonctionne déjà à plein dans les marchés financiers. Ainsi, près de 70% des activités de trading sur les marchés actions US et européen sont le fait de bots de trading (Fabino, 2023). Or, ces machines ne pensent pas aux conséquences de leurs actions, elles n’ont qu’un but : le profit.
Imaginons que ces machines repèrent des opportunités sur le prix du blé (production en baisse, augmentation des stockages, faillites d’entreprise agro-alimentaire, etc.), et que leurs actions conduisent à une augmentation de son prix sur les marchés, elles n’en auront que faire que ce mouvement mette à mal la sécurité alimentaire de plusieurs millions de personnes pour lesquels le blé est central comme dans les pays du Maghreb notamment (Rastoin et Benabderrazik, 2014).
Blackrock, la plus grande société de gestion avec 10 000 milliards d’actifs sous gestion, qui possède des participations dans 17 000 entreprises de CBS à Bouygues (TF1), en passant par Apple, Google, Facebook et même Pfizer… a confié la plus grande partie de sa gestion à son intelligence artificielle Aladdin afin d’uniformiser les paramètres de gestion à l’échelle du globe et détecter là où les profits peuvent se réaliser. L’humain étant souvent la variable d’ajustement de ces politiques économiques (Escale, 2021).
Les machines peuvent mal interpréter nos intentions
Selon Watzlawick et coll. (2014), dans toute communication humaine, il y a deux éléments indissociables: le contenu et la relation, c.-à-d. la manière dont le contenu va être compris par le destinataire du message.
Dans toute communication, par ailleurs, il y a aussi un élément conatif. En effet, nous souhaitons le plus souvent que notre message, au-delà de sa compréhension, produise un certain effet sur le destinataire.
Or, c’est dans cet interstice relationnel et conatif qu’il peut y avoir des interférences entre l’humain et la machine.
Pour Gawdat (2021), malgré toutes les bonnes intentions du monde, les machines n’interpréteront pas toujours nos intentions de la bonne manière.
Ainsi, si “vous demandez aux machines les plus intelligentes de recommander des solutions pour lutter contre le réchauffement climatique, il est possible qu’elles suggèrent des mesures drastiques telles que la réduction de la population humaine, l’élimination des voitures, la réduction des activités économiques et la mise en place de lois strictes contre les pollueurs. Ces suggestions peuvent avoir des avantages environnementaux, mais elles peuvent également entraîner des coûts conséquents pour la société” (Gawdat, 2021).
Le monde du travail va profondément se transformer
Évolution potentielle
Si dans un premier temps, les modèles d’intelligence artificielle ne remplaceront pas complètement les humains dans le monde du travail, les individus qui refusent d’utiliser ces outils seront peu à peu remplacés par ceux qui les maîtrisent.
Puis, à mesure que la technologie s’affine, des pans entiers de la production de biens et de services est dévolue progressivement aux machines. La valeur économique de l’humain s’amoindrit avec le temps et nous n’aurons alors plus rien à offrir sur le plan comptable (Gawdat, 2021).
Des exemples concrets de ce mouvement commencent déjà à poindre et des boîtes, qu’elles soient françaises ou indiennes, virent leurs employés par centaines pour les remplacer par des intelligences artificielles.
Exemples concrets
Par exemple, chez Onclusive, une entreprise française active dans la veille numérique pour des clients, 217 postes ont été supprimés sur les 447 que compte le groupe afin d’être substitués par des machines intelligentes. Dans un autre cas, Suumit Shah, le PDG de Duncaan, une entreprise indienne active dans le commerce en ligne, est très heureux, quant à lui, d’annoncer que 90% de ses employés ont été remerciés pour laisser la place à des IA. Ce licenciement et le remplacement des humains par des automates lui ont permis, selon ses dires, une amélioration notable du service aux clients et l’obtention de gains phénoménaux de productivité (Confrère, 2023a et 2023b).
De tels mouvements de remplacement de la force de travail humaine par des modèles d’intelligence artificielle risquent de s’accélérer à l’avenir. Alors que seuls les travaux manuels semblaient devoir être impactés par l’arrivée massive des robots dans les industries et les PME, on prend peu à peu conscience que les travaux intellectuels seront aussi affectés lourdement. Nous vivrons peut-être bientôt dans un monde où nous ne pourrons plus distinguer l’homme de la machine et dans lequel la force de travail sera essentiellement composée d’appareils mécaniques ou électroniques intelligents.
Il n’est pas sûr cependant que la société accepte ces pertes d’emploi et accepte surtout que l’humain puisse recouvrer sa liberté en se réinventant en dehors du travail. La précarité et la compétition entre les individus seront sans doute encore plus féroces, et il sera toujours exclu que l’humanité puisse enfin utiliser son temps à des tâches qu’elle aurait réellement choisies, libérée, par la machine, de son aliénation au travail.
L’appropriation des richesses créées
Pour Donna Haraway (de La Porte, 2023), écrivaine du “Manifeste Cyborg” (1985), les intelligences artificielles pourraient tout à fait libérer les humains d’une série de tâches ennuyeuses et fastidieuses. Malheureusement, selon elle, si toutes les révolutions technologiques permettent un abaissement des coûts du travail par une augmentation de la productivité, les bénéfices induits ne se répercutent jamais sur les travailleurs et sont toujours accaparés par un petit nombre. Les travailleurs qui effectuaient des tâches ennuyeuses avant l’arrivée des nouvelles technologies ne s’en voient jamais proposer d’autres une fois que les machines les ont remplacés. Ils deviennent des objets… jetables.
Et il y aura toujours des bugs
Le fonctionnement d’une machine est souvent sujet à des bugs variés qui conduisent à des effets imprévisibles et délétères. Ces problèmes, qu’ils soient liés à un composant électronique défectueux ou une anomalie de fonctionnement d’un algorithme n’épargneront pas les modèles d’intelligence artificielle. Ce qui entraînera souvent des conséquences insupportables.
Que ce soit le premier bug de l’histoire informatique, en 1947, à Harvard, quand une mite s’était glissée dans d’un ordinateur en provoquant un court-circuit (National Geographic, 2022) ou lorsqu’en 1983, les satellites de surveillance soviétiques avaient signalé à tort que les forces armées américaines étaient en train d’attaquer l’URSS avec des missiles balistiques, les conséquences auraient pu être désastreuses.
Heureusement, Stanislav Petrov, officier de la force de défense anti-aérienne de l’Armée soviétique, avait choisi d’ignorer les faux signaux. Dans le cas contraire, s’il avait respecté scrupuleusement la procédure prévue, nous ne serions plus là pour en parler puisque la terre aurait connu, sans doute, un holocauste nucléaire.
Pour Gawdat, l’émergence de machines intelligentes autonomes, c.-à-d. sans supervision humaine, semble donc le gage pour des désastres à venir.
Typologie des intelligences artificielles: de l’intelligence artificielle spécialisée à la super intelligence en passant par l’intelligence artificielle générale
Les machines ne feront-elles que nous imiter?
Les recherches sur l’IA avancent à grands pas et ce qui semblait inimaginable avant l’arrivée de ChatGPT 3.5, à savoir la création d’intelligences artificielles générales (ou AGI pour artificial general intelligence) voire d’une super intelligente, semble à présent plus vraisemblable dans l’esprit des spécialistes en IA.
Si l’intelligence artificielle est, au départ, une technologie qui a permis aux machines d’imiter les comportements humains (Sheikh, Prins, Schrijvers, 2023), il n’est pas certain qu’à l’avenir, à mesure que leur intelligence progressera, elles continueront à le faire. Leurs actions ne pourront plus alors être prévues car elles s’écartent de celles attendues chez un humain.
Les machines intelligentes limitées à une seule capacité en auront bientôt plusieurs
En attendant, les modèles d’intelligence artificielle sont spécialisés et imitent le plus souvent une seule dimension de l’intelligence humaine. Demandez à ChatGPT de se lancer dans un calcul mental même simple ou de vous dessiner un mouton et vous vous rendrez assez vite compte de ses limites. Ce modèle n’est actuellement pas capable de donner réellement le change, à part au niveau langagier, et même dans ce cas-là, vous pouvez cerner assez rapidement les mécanismes qui sous-tendent ses productions.
Mais les modèles d’IA apprennent vite, vraiment très vite et leurs créateurs n’hésitent pas à les intégrer à d’autres applications afin d’accroître leurs fonctionnalités. ChatGPT peut maintenant interagir avec des extensions qui enrichissent ses fonctionnalités de base tout comme Bard qui peut se connecter aux services et aux apps Google.
L’objectif à moyen terme de tous ces chercheurs est de créer des intelligences artificielles générales qui pourront imiter l’humain dans toutes ses dimensions.
L’humain ne pourra plus se comparer à la machine
Imaginez donc, au-delà des aspects éthiques, que l’on parvienne à miniaturiser ces AGI sous la forme d’humanoïdes autonomes et que dans votre environnement ces êtres soient peu à peu introduits.
Jamais fatigués, en permanence enjoués, d’une productivité débordante, disponibles 24h/24, pouvant chanter comme la Callas à la Scala de Milan, croyez-vous vraiment que vous ferez le poids si vous êtes mis en concurrence face à ces machines ? Croyez-vous que vous garderez vos avantages sociaux dans leurs formes actuelles et votre niveau de vie ?
Imaginez maintenant que ces êtres ne soient plus simplement capables d’imiter les humains dans toutes leurs dimensions mais qu’ils soient meilleurs en tout. Plus intelligents, plus forts, plus beaux, l’humain ne serait alors plus un étalon de comparaison pour ces machines qui n’auraient alors plus besoin de nous…
Sam Altman, PDG de OpenAI (l’entreprise derrière ChatGPT) et d’autres spécialistes en IA de chez Google et Microsoft ont d’ailleurs co-signé une déclaration en mai 2023 afin d’exhorter les gouvernants à établir des régulations dans le domaine car selon les signataires, l’IA pourrait mener l’humanité à son extinction (Chiang, 2023).
L’intelligence artificielle en éducation
Si l’avènement des modèles d’intelligence artificielle dans nos vies est devenu une réalité et que des pans entiers de notre quotidien (conduite autonome, détection de spams, profilage sur les réseaux sociaux, génération de textes et d’images, chatbot sur les sites internet, etc.) sont déjà déterminés par leur présence, le domaine de l’éducation n’en appréhende que les premières manifestations. Mais bientôt, on devrait voir l’arrivée progressive d’une massification des usages de l’IA au sein des établissements scolaires.
Dans le dossier thématique autour de l’IA, dont cet article fait partie, nous vous avons présenté une interview de Alain Strowel, professeur de droit à l’UCLouvain qui a tracé les grandes lignes de l’utilisation pédagogique et professionnelle de l’IA dans le domaine du droit. Nous vous avons aussi présenté des usages plus pointus de l’IA afin de vous permettre de concevoir un cours ou de créer des évaluations automatiques.
Dans cette section, nous allons essayer de nous mettre à un niveau plus prospectif et réfléchir au devenir de l’éducation face à l’arrivée de ces nouvelles technologies.
L’IA en éducation, un marché potentiellement colossal
Quelques chiffres
Selon les données de la Banque Mondiale (2023), la Belgique consacrait, en 2020, plus de 6,6% de son PIB à l’éducation. En d’autres termes, les dépenses publiques de notre pays, dans ce secteur, s’élevaient, cette année-là, à un peu plus de 35 milliards d’euros.
Dans le même temps, à l’échelle mondiale, les dépenses publiques ayant trait à l’éducation s’élevaient à près de 4900 milliards d’euros (selon l’Équipe du Rapport mondial de suivi sur l’éducation, la Banque mondiale et l’Institut de statistique de l’UNESCO, 2022).
Ces sommes faramineuses doivent, à n’en pas douter, aiguiser les appétits de ceux qui verraient d’un bon œil la possibilité de concurrencer les opérateurs publics sur leur propre terrain, tout en récoltant les deniers publics.
Exception culturelle et quasi-marché
Des garde-fous existent cependant en Belgique, que ce soit:
- la directive sur la diversité culturelle adoptée en 2005, par l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco) qui tempèrent les règles du libre-commerce dans l’éducation, notamment via son article 10 ;
- l’organisation particulière de l’enseignement en quasi-marché dans lequel le monopole d’état total laisse place à un financement public de l’élève — pour autant que les établissements dans lesquels ils sont inscrits respectent des programmes strictes — et à un libre-choix de l’école (Vandenberghe, 1998).
L’intégration de la technologie dans l’enseignement sera-t-il rendu nécessaire ?
Cela étant dit, il n’est pas certain que cette réalité puisse perdurer indéfiniment, à mesure que la technologie et les modèles d’IA permettent une autonomisation réelle des apprentissages, une production de feedbacks personnalisés, une adaptation fine au niveau des apprenants et une adéquation des enseignements à leurs besoins, le tout dans une enveloppe budgétaire nettement inférieure à celle sous-tendue par l’organisation actuelle de l’enseignement.
Freins à la massification des usages de l’IA en éducation
Avant de savoir si l’intégration massive des IA en éducation a un sens et constitue une réelle plus-value pour les apprenants, il nous semble important d’appréhender les freins à l’introduction pleine et entière de la technologie dans l’enseignement en Belgique, singulièrement au niveau de l’Enseignement de promotion sociale (EPS) en FWB, un enseignement qui dispense des formations continues pour un public adulte.
Nous ne reviendrons pas sur l’obstacle majeur à l’intégration des technologies dans l’enseignement que constitue la fracture numérique. Phénomène que nous avons déjà évoqué dans une section d’un autre article sur l’IA mais nous essaierons d’apporter un éclairage plus systémique sur les raisons qui empêchent le plein déploiement de l’intelligence artificielle au sein de l’EPS.
La résistance des enseignants
La résistance au changement: une tentative de définition
Tout changement dans une organisation s’accompagne immanquablement de résistances diverses qu’elles soient individuelles ou collectives car ces changements viennent bousculer les habitudes. Ce qui conduit les individus qui subissent un changement dans leur organisation à agir de manière à l’entraver ou lui nuire (Bareil cité dans Meunier, 2010).
Herscovitch (cité dans Meunier, 2010) montre que ces comportements de résistance se manifestent soit sous la forme d’une action, par exemple par un sabotage ou une critique, soit sous la forme d’une inaction, par exemple retenir de l’information ou garder le silence.
Des chercheurs démontrent, en outre, qu’il existe plusieurs formes de résistance, certaines sont explicites et actives (par exemple, le refus d’effectuer une tâche, l’insubordination, etc.) alors que d’autres sont passives et subtiles (par exemple, l’indifférence, la rétention d’information, etc.). Ils affirment, de plus, que ces résistances peuvent se manifester à un niveau individuel, par un refus d’effectuer une tâche, par exemple, ou à un niveau collectif, par l’entremise notamment du droit de grève, par exemple (Bareil cité dans Meunier, 2010).
Les Spécificités de l’enseignement
Il n’est donc pas étonnant que les enseignants puissent être frileux lorsqu’il s’agit d’accepter l’irruption de nouvelles technologies de l’information et de la communication dans leur environnement car celles-ci vont questionner en profondeur leurs pratiques.
Dans le cas de l’arrivée des modèles d’intelligence artificielle, il est certain qu’elles viennent interroger les spécificités du métier d’enseignant car l’IA permet notamment une structuration pédagogique adéquate des contenus didactiques qui étaient auparavant l’apanage des seuls chargés de cours.
Or, malheureusement comme Jouët (cité dans Fewou Ngouloure, 2015) le montre, les résistances des enseignants à l’arrivée des nouvelles technologies se manifestent par une maîtrise très partielle des outils. Ce qui conduit justement dans le cas des outils spécifiques autour de l’IA, à ce que cette maîtrise imparfaite les fassent passer à côté de leur puissance phénoménale.
D’autre part, entre les fonctionnalités imaginées par les concepteurs des outils d’IA et leurs mises en œuvre pratique par les enseignants, il y a souvent un gouffre et le rêve se confronte alors à la réalité.
Les processus de formation aux nouvelles technologies loin d’être parfaits
La formation en promotion sociale
Se former aux nouvelles technologies aussi disruptives que celles liées à l’intelligence artificielle implique du temps. Et souvent, contrairement à ce que ce métier renvoie comme représentations mentales dans l’inconscient collectif, les enseignants n’ont que peu de temps pour se former.
C’est d’autant plus vrai dans l’Enseignement de promotion sociale en FWB. En effet, aucun temps de formation n’est prévu dans les horaires des chargés de cours. Ce qui implique que l’organisation des formations est laissée à la seule responsabilité des enseignants eux-mêmes sur leur temps libre ou au bon vouloir des directions dont les objectifs ne rejoignent pas tout le temps ceux de leurs collaborateurs.
Or, la formation continue permet aux enseignants de réactualiser et de perfectionner leurs pratiques voire de les modifier afin de correspondre à l’état de l’art. Afin de répondre au mieux aux attentes et aux besoins des apprenants.
La nécessité d’intégrer l’IA dans les pratiques pédagogique
Les enseignants ne peuvent pas passer à côté des modèles d’IA, d’autant plus que les élèves et les étudiants ne les ont pas attendus pour s’emparer de ces technologies (notamment les générateurs de textes avec en tête ChatGPT et Bard).
Il est donc impératif que les professeurs adaptent leurs supports de cours et leurs méthodes d’évaluation à cette nouvelle réalité au risque que leur pédagogie ne finisse par ne plus atteindre sa cible.
Ce qui nécessite encore et toujours de se former…
L’école n’est pas ce lieu où les inégalités intellectuelles s’estompent
Selon Laurent Alexandre, l’école a très peu d’impact sur les inégalités intellectuelles (Thinkerview, 2023). Or, la maîtrise du fonctionnement des IA actuelles, dites faibles car centrées sur une tâche, et la capacité à structurer des requêtes ne sont pas choses aisées. Cela implique, chaque fois, de faire abstraction et de se projeter mentalement pour atteindre les objectifs que l’on s’est fixés.
Cette disparité entre individus en termes de compétences d’analyse et de compréhension va aller en s’accentuant à mesure de la complexification du monde et de la nécessité de maîtriser des compétences, en rapport avec l’IA, elles aussi de plus en plus complexes.
Il n’est pas certain que l’IA améliore le niveau global des apprenants car l’introduction de la technologie dans les classes ne semble pas avoir d’impact sur l’intelligence des individus. Mettre des ordinateurs ou des tablettes ne rend pas les apprenants plus intelligents.
En effet, selon Laurent Alexandre, nous sommes en plein fétichisme technologique lorsqu’on pense que la technologie va régler tous les problèmes. Même si néanmoins, il considère que ce n’est pas l’action des enseignants ni leur gentillesse qui vont casser les déterminismes neuro-génétiques en matière d’intelligence (Thinkerview, 2023). Il pense au contraire que des modèles d’intelligence artificielle peuvent contribuer à certaines solutions.
Utiliser l’IA en éducation à son avantage
Amener les apprenants dans leur zone proximale de développement
Pour Vygotski (1980), afin de progresser dans ses apprentissages, l’apprenant doit coopérer avec un individu qui a des capacités supérieures aux siennes afin qu’il puisse maîtriser in fine les capacités de son mentor.
Idéalement, pour Vygotski (1980), cela implique pour l’enseignant de mettre en œuvre des actions permettant à l’apprenant de rester en permanence dans sa « zone proximale de développement », une zone dans laquelle l’élève n’est plus tout à fait capable de réaliser une tâche de manière autonome mais qu’il pourra effectuer facilement s’il est accompagné.
Or, dans une étude de Ayers, Poliak, et Dredze (2023), comparant les réponses de médecins et de modèles d’IA à des questions posées sur un forum, ils se sont rendus compte que les réponses des chatbots recevaient une évaluation plus positive des lecteurs par rapport à celles des médecins en ce qui concerne la qualité technique et l’empathie affichées.
Il n’y a qu’un pas pour imaginer une transposition de cette étude au monde de l’enseignement et que des intelligences artificielles soient dès lors capables d’amener les apprenants dans leur « zone proximale de développement » avec une patience infinie et des actions adaptées pour chacun.
Apprentissage amélioré dans des environnements virtuels immersifs intelligents
Petersen (2023) montre comment, dans un environnement de réalité virtuelle, des activités d’apprentissage génératif réalisées en mode collaboratif peuvent améliorer l’apprentissage des apprenants. Ce qu’on appelle activité d’apprentissage génératif est une tâche qui met en action les apprenants et les amènent à réaliser une carte heuristique, un résumé, un test ou une explication du matériel pédagogique.
Il serait dès lors possible de combiner les technologies liées à la réalité virtuelle et à l’intelligence artificielle pour créer des environnements d’apprentissage interactifs qui amélioreraient l’engagement des apprenants et in fine leurs apprentissages.
Structurer la pensée des apprenants
Un des avantages des IA conversationnelles est leur capacité à structurer leurs réponses. Si ces dernières doivent souvent être traitées avec circonspection, elles permettent néanmoins aux apprenants de dépasser le syndrome de la feuille blanche en s’inspirant de ces éléments construits à même de les guider dans leurs propres recherches.
Créer des activités d’apprentissages variées
Nous avons vu dans d’autres articles de ce dossier thématique autour de l’IA qu’il était possible de créer des activités d’apprentissage variées grâce à ChatGPT ou Bard.
Le gros avantage est que les activités créées par ces chatbots pourront être parfaitement calibrées en fonction de l’âge et des capacités de nos apprenants.
En plus, ces machines sont taillables et corvéables à merci et peuvent réaliser en un claquement de doigts des suggestions d’activités ainsi que leur déroulé précis et énoncer les objectifs qu’elles visent.
Rédiger des supports de cours
Différents modèles d’IA peuvent aider l’enseignant à réaliser des supports de cours adaptés. Que ce soit des syllabi, des diaporamas ou des évaluations, certaines IA peuvent réaliser ces supports avec une facilité déconcertante et un degré de précision impressionnant.
L’IA assiste alors l’enseignant dans une multiplicité de tâches en lui permettant de se focaliser sur les axes plus essentiels.
Illustrer ses supports de cours tout en évitant l’épineux problème des droits d’auteur
Si la plupart du temps quand on pense aux IA, on pense aux modèles conversationnels, il existe pourtant d’autres IA spécialisées. Notamment celles qui permettent de générer des images ou des vidéos.
Midjourney, DALL.E, Bing Image Creator, Synthesia, Hourone, Invideo, Stable Diffusion, Hugging Face text to image models et d’autres IA sont, en effet, capables de produire des images ou des vidéos de qualité.
Ces modèles permettent en tout cas à l’enseignant d’illustrer ses supports de cours sans qu’il ait à chercher de manière fastidieuse une illustration correspondant à son sujet. Car la recherche prend du temps. Fouiller dans des banques d’images parmi des milliers d’images ne se fait pas sans mal et les résultats ne sont pas toujours à la hauteur. L’enseignant se retrouve alors à devoir faire des concessions avec des images loin de correspondre à ce qu’il avait en tête.
Alors qu’en utilisant ces générateurs, il s’assure que les illustrations produites correspondent pleinement à ses attentes, tout en accordant beaucoup moins de temps à la tâche. Avantage supplémentaire indéniable, il ne doit plus se soucier un seul instant de la question des droits d’auteur puisque ces productions seront alors “originales”.
Conclusion
Dans cet article, nous avons essayé de dresser un panorama des bouleversements actuels, à venir et fantasmés induits par l’avènement de l’IA.
Au terme de cet article, il n’est malheureusement pas possible d’avoir une vision définitive sur le devenir de notre société et de l’enseignement face à cette déferlante. La seule chose que l’on puisse faire, c’est se préparer et anticiper les découvertes autour de l’IA dans les prochaines années car elles auront un impact très important sur nos vies.
L’intégration de l’IA en éducation, si elle doit être réfléchie, offre néanmoins sur le papier de belles perspectives.
Sources
Sources de A à C
Alexandre, L. (2019a). IA et éducation. Pouvoirs, N°170(3), 105. https://doi.org/10.3917/pouv.170.0105
Alexandre, L. (2019b). IA et éducation. Pouvoirs, N°170(3), 105. https://doi.org/10.3917/pouv.170.0105
Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z., Kelley, J. B., Faix, D. J., Goodman, A. M., Longhurst, C. A., Hogarth, M., & Smith, D. M. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine, 183(6), 589‑596. https://doi.org/10.1001/jamainternmed.2023.1838
Banque Mondiale. (2023). World Bank Open Data. Les données de la Banque Mondiale. https://data.worldbank.org
Bombaerts, J.-P. (2023, avril 21). La dette des entités fédérées s’approche des 100 milliards d’euros. L’Echo. https://www.lecho.be/economie-politique/belgique/economie/la-dette-des-entites-federees-s-approche-des-100-milliards-d-euros/10461962.html
Chiang, S. (2023, mai 31). A.I. poses human extinction risk on par with nuclear war, Sam Altman and other tech leaders warn. CNBC. https://www.cnbc.com/2023/05/31/ai-poses-human-extinction-risk-sam-altman-and-other-tech-leaders-warn.html
Confrère, E. (2023a, juillet 13). «C’était nécessaire» : Un PDG indien se vante d’avoir remplacé 90% des employés d’un service par une IA. LE FIGARO. https://www.lefigaro.fr/secteur/high-tech/c-etait-necessaire-un-pdg-indien-se-vante-d-avoir-remplace-90-des-employes-d-un-service-par-une-ia-20230713
Confrère, E. (2023b, septembre 19). Onclusive, cette entreprise française qui licencie plus de 200 salariés pour les remplacer par une IA. LE FIGARO. https://www.lefigaro.fr/secteur/high-tech/onclusive-cette-entreprise-francaise-qui-licencie-217-salaries-pour-les-remplacer-par-une-ia-20230919
Sources de D à F
Daoust, G. (2023, mars 25). La « singularité » ou l’accélération exponentielle de la technologie. L’Echo. https://www.lecho.be/opinions/general/la-singularite-ou-l-acceleration-exponentielle-de-la-technologie/10456069.html
de La Porte, X. (2023, septembre 29). Ecouter Donna Haraway parler de cyborgs sous un arbre. France Inter. https://www.radiofrance.fr/franceinter/podcasts/le-code-a-change/ecouter-donna-haraway-parler-de-cyborg-sous-un-arbre-8258430
Draelants, H., Dupriez, V., & Maroy, C. (2003). Le système scolaire: Dossiers du CRISP, N° 59(2), 9‑116. https://doi.org/10.3917/dscrisp.059.0009
Équipe du Rapport mondial de suivi sur l’éducation, Banque mondiale, & Institut de statistique de l’UNESCO. (2022). Suivi du financement de l’éducation 2022. https://unesdoc.unesco.org/ark:/48223/pf0000381644_fre
Escale, S. (2021). BlackRock ou les risques insensés de la finance spéculative. Mediapart. https://blogs.mediapart.fr/sergeescale/blog/240421/blackrock-ou-les-risques-insenses-de-la-finance-speculative
Fabino, A. J. (s. d.). What Percentage Of Stock Trades Are Made By Bots And Algorithms? Benzinga. Consulté 1 octobre 2023, à l’adresse https://www.benzinga.com/general/topics/23/06/32861724/what-percentage-of-stock-trades-are-made-by-bots-and-algorithms
Fewou Ngouloure, J. P. (2015). Usages, usagers et nouvelles technologies d’enseignement/apprentissage. Revue française des sciences de l’information et de la communication, 6. https://doi.org/10.4000/rfsic.1304
France Université Numérique (Réalisateur). (2023, juin 21). L’intelligence artificielle n’existe pas, par Luc Julia. https://www.youtube.com/watch?v=yuDBSbng_8o
Sources de G à H
Gawdat, M. (2021). Scary Smart (Bluebird/libri).
Georges, B. (2019). Intelligence artificielle : De quoi parle-t-on ?: Constructif, N° 54(3), 5‑10. https://doi.org/10.3917/const.054.0005
Godfrey, J. J., Holliman, E. C., & McDaniel, J. (1992). SWITCHBOARD : Telephone speech corpus for research and development. [Proceedings] ICASSP-92: 1992 IEEE International Conference on Acoustics, Speech, and Signal Processing, 517‑520 vol.1. https://doi.org/10.1109/ICASSP.1992.225858
Guillo, L. (2021, avril 8). Luc Julia : « En soit l’intelligence artificielle n’est ni bonne, ni mauvaise. C’est juste un outil, comme un marteau ». Capital.fr. https://www.capital.fr/entreprises-marches/luc-julia-en-soit-lintelligence-artificielle-nest-ni-bonne-ni-mauvaise-cest-juste-un-outil-comme-un-marteau-1399507
Hamouda, L. B. (2023, mai 30). Quelle place pour l’intelligence artificielle dans l’éducation ? Le Café pédagogique. https://www.cafepedagogique.net/2023/05/30/intelligence-artificielle-vs-intelligence-humaine/
Holmes, W., & Tuomi, I. (2022). State of the art and practice in AI in education. European Journal of Education, 57(4), 542‑570. https://doi.org/10.1111/ejed.12533
Sources de J à P
Jalan, A. (2023, mai 10). 6 Lessons Microsoft Learned From Its Tay AI Chatbot Disaster. MUO. https://www.makeuseof.com/lessons-microsoft-learned-tay-ai-disaster/
La guerre des intelligences : Comment l’intelligence artificielle va révolutionner l’éducation (1re édition). (2017). JC Lattès.
Magimel, J. (2021). L’intelligence artificielle n’existe pas : Luc Julia. Paysans & société, N° 385(1), 49‑50. https://doi.org/10.3917/pes.385.0049
Meunier, S. (2010). Le changement organisationnel : Prédiction des comportements de soutien et de résistance par le biais des préoccupations [Université de Montréal]. https://papyrus.bib.umontreal.ca/xmlui/bitstream/handle/1866/3949/Meunier_Sophie_2010_these.pdf?sequence=6&isAllowed=y
Monin, P. (2019). Ganascia J.G., Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ?, Le Seuil, Coll. Science ouverte, 2017: RIMHE : Revue Interdisciplinaire Management, Homme & Entreprise, n° 36, 8(3), 121‑128. https://doi.org/10.3917/rimhe.036.0121
National Geographic. (2022). World’s First Computer Bug. National Geographic. https://education.nationalgeographic.org/resource/worlds-first-computer-bug
Petersen, G. B., Stenberdt, V., Mayer, R. E., & Makransky, G. (2023). Collaborative generative learning activities in immersive virtual reality increase learning. Computers & Education, 207, 104931. https://doi.org/10.1016/j.compedu.2023.104931
Plenke, M. (2015, juin 30). Google Just Misidentified 2 African-Americans in the Most Racist Way Possible. Mic. https://www.mic.com/articles/121555/google-photos-misidentifies-african-americans-as-gorillas
Sources de R à T
Rastoin, J.-L., & Benabderrazik, E. H. (2014). Céréales et oléoprotéagineux au Maghreb. Pour un co-développement de filières territorialisées (Institut de Prospective Economique du Monde Méditerranéen (IPEMED)). https://www.ipemed.coop/adminIpemed/media/fich_article/1404979543_IPEMED – Céréales et oléoprotéagineux au Maghreb.pdf
Science, O.-O. D. (2023, mars 31). OpenAI CEO Sam Altman Warns of Potential Risks in Unregulated AI Development. Medium. https://odsc.medium.com/openai-ceo-sam-altman-warns-of-potential-risks-in-unregulated-ai-development-9a48c7f286ee
Sheikh, H., Prins, C., & Schrijvers, E. (2023). Mission AI : The new system technology. Springer.
The Diary Of A CEO (Réalisateur). (2023, juin 1). EMERGENCY EPISODE : Ex-Google Officer Finally Speaks Out On The Dangers Of AI! – Mo Gawdat | E252. https://www.youtube.com/watch?v=bk-nQ7HF6k4
Thinkerview (Réalisateur). (2023). La guerre des intelligences ? Laurent Alexandre. https://www.youtube.com/watch?v=D3hR6nMZHG8&t=461s
Vandenberghe, V. (1998). L’enseignement en Communauté française de Belgique : Un quasi-marché. https://perso.uclouvain.be/vincent.vandenberghe/Papers/RP_QM_VVDB.pdf
Vincent, J. (2016, mars 24). Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. The Verge. https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist
Vygotsky, L. S. (1980). Mind in Society : Development of Higher Psychological Processes (M. Cole, V. Jolm-Steiner, S. Scribner, & E. Souberman, Éds.). Harvard University Press. https://doi.org/10.2307/j.ctvjf9vz4
Watzlawick, P., Bavelas, J. B., Jackson, D. D. A., & Morche, J. (2014). Une logique de la communication. Éd. Points.
Wilquin, M. (2023). Où en est-on avec les dettes wallonnes ? Doit-on s’inquiéter ? RTBF. https://www.rtbf.be/article/ou-en-est-on-avec-les-dettes-wallonnes-doit-on-sinquieter-11205083
Laisser un commentaire