Idée

En classe, l’IA doit rester à sa place

Les applications de l’intelligence artificielle dans l’éducation doivent faire l’objet d’évaluations indépendantes et être encadrées. C’est à ce prix, plaide Ben Williamson, que l’école pourra maintenir sa mission qui consiste aussi à développer l’esprit critique et former les citoyens de demain.
En classe, l'IA doit rester à sa place

Ben Williamson
Maître de conférences et codirecteur du Centre de recherche sur l’éducation numérique à l’Université d’Édimbourg (Royaume-Uni), Ben Williamson a publié Big Data in Education : The Digital Future of Learning, Policy and Practice (2017), et Digitalisation of Education in the Era of Algorithms, Automation and Artificial Intelligence (à paraître en 2024).

Une expérience mondiale d’intelligence artificielle est actuellement à l’œuvre dans les écoles. Depuis le lancement de ChatGPT fin 2022, rapidement suivi par d’autres « grands modèles linguistiques », les médias s’enthousiasment pour ces technologies tout en alertant sur leur impact potentiel sur l’éducation. En réponse à l’arrivée des applications d’« IA générative » dans les écoles, Stefania Giannini, Sous-Directrice générale de l’UNESCO pour l’éducation, a écrit : « La vitesse à laquelle les technologies d’IA générative sont intégrées dans les systèmes éducatifs en l’absence de contrôles, de règles ou de régulation est effarante. »

Son évaluation est sans détour. « L’éducation, compte tenu de sa fonction de protection et d’encouragement du développement et de l’apprentissage, doit rester particulièrement à l’écoute des risques liés à l’IA, qu’il s’agisse de ceux connus ou de ceux que l’on commence à peine à entrevoir, écrit-elle. Mais trop souvent, nous ignorons ces risques. »

Or ces risques sont encore peu évalués. La communauté éducative a besoin d’être accompagnée pour mieux les comprendre et des mesures sont nécessaires pour protéger les écoles des dommages que pourraient causer ces technologies.

Mécanisation de l’enseignement

Les risques et effets négatifs de l’IA sont connus. À commencer par les préjugés et la discrimination qui résultent de l’entraînement des systèmes sur des ensembles de données historiques. Ce seul biais devrait suffire à justifier une remise en question des déclarations hyperboliques sur l’IA. Mais son application à l’école pose des problèmes plus spécifiques.

L’un de ces défis concerne le rôle des enseignants. Les optimistes affirment souvent qu’elle ne remplacera jamais les professeurs par des automates. Ils soutiennent que l’IA leur fera gagner du temps, réduira leur charge de travail et assumera une série de tâches courantes. Or, la mécanisation de l’enseignement exige en réalité un surcroît de travail. Les professeurs devront en effet adapter leurs approches pédagogiques pour travailler avec des technologies automatisées. Ils ne seront peut-être pas remplacés par des robots, mais l’IA pourrait robotiser certaines de leurs tâches, comme la planification des cours, la préparation du matériel, l’évaluation et l’encadrement des étudiants.

Comme l’a montré l’auteure américaine Audrey Watters dans son livre Teaching Machines, l’idée selon laquelle l’automatisation peut rationaliser l’enseignement, « personnaliser » l’apprentissage et faire gagner du temps aux enseignants est ancienne. Selon elle, plutôt que de reposer sur une vision éducative, l’enseignement mécanique relève davantage du fantasme industriel d’une scolarisation ultra-efficace.

Contenus trompeurs

Par ailleurs, certaines utilisations parmi les plus spectaculaires de l’IA dans les classes s’appuient sur des conceptions étroites de l’apprentissage. Les scientifiques et les dirigeants d’entreprise invoquent souvent une étude des années 1960 montrant que le tutorat individuel entraîne de meilleurs résultats que l’enseignement en groupe. Cet « effet de réussite » qui ressort de l’étude vient conforter l’idée d’un enseignement individualisé dispensé par des « robots tuteurs » automatisés. Le problème, c’est qu’elle repose sur une vision limitée de l’objectif de l’éducation, réduite à améliorer les résultats mesurables des individus.

L’IA fait l’impasse sur les enjeux tels que forger une pensée critique et former des citoyens engagés

Cette vision fait l’impasse sur les enjeux plus vastes liés à l’éducation dont l’objectif est aussi de forger une pensée critique indépendante, favoriser le développement personnel des élèves et former des citoyens engagés. L’enseignement mécanique visant à améliorer les mesures de l’apprentissage individuel ne répond pas à ces objectifs et à ces valeurs de l’instruction publique.

En outre, les formes d’enseignement mécanique rendues possibles par l’IA ne sont pas aussi fiables qu’on le prétend. Des applications telles que ChatGPT ou Google Bard ont tendance à produire des contenus factuellement inexacts. D’un point de vue technique, elles se contentent de prédire le mot suivant dans une séquence et de générer automatiquement du contenu en réponse à une demande de l’utilisateur. Techniquement impressionnantes, elles peuvent conduire à la production de contenus faux ou trompeurs.

Le critique technologique Matthew Kirschenbaum a imaginé ce que serait un « textpocalypse » en cas d’inondation du web par de fausses informations. L’utilisation de ces technologies pourrait alors polluer le matériel pédagogique ou, au minimum, exiger des enseignants des efforts chronophages pour en vérifier et en corriger l’exactitude.

Services payants

L’IA peut également être exploitée à des fins de censure du contenu éducatif. Dans l’histoire récente, une circonscription scolaire des États-Unis a utilisé ChatGPT pour identifier les livres à bannir de la bibliothèque afin de respecter les nouvelles lois conservatrices sur les contenus éducatifs. Loin de constituer une passerelle neutre vers le savoir et la compréhension, l’IA générative peut contribuer à mettre en œuvre des politiques sociales réactionnaires et régressives, mais aussi restreindre l’accès à des documents culturels diversifiés.

Il faut ajouter que la course à l’intégration de l’IA dans les écoles est moins motivée par des objectifs éducatifs que par les visions et les intérêts financiers du secteur de l’IA. Bien que les technologies soient extrêmement coûteuses, l’IA dans l’éducation est considérée comme très rentable. Les écoles, voire les parents et les élèves eux-mêmes, sont censées payer pour accéder aux applications d’IA, ce qui fait grimper la valeur marchande des entreprises du secteur de l’éducation ayant conclu un accord avec un grand opérateur d’IA.

Les écoles ou les circonscriptions finiront donc par payer des services par le biais de contrats permettant au fournisseur d’IA de compenser ses coûts d’exploitation. En définitive, les fonds publics destinés à l’éducation seront soustraits aux écoles pour assurer la rentabilité de ces entreprises.

Dans le même temps, les écoles risquent de devenir dépendantes des entreprises technologiques et de perdre leur autonomie, avec pour conséquence un enseignement public tributaire de systèmes techniques privés n’ayant aucun compte à rendre. En outre, l’IA est gourmande en ressources énergétiques. Son utilisation dans les écoles du monde entier contribuera probablement à accélérer la dégradation de l’environnement.

Mesures de protection

L’IA dans l’éducation soulève par conséquent une série de questions cruciales auxquelles les enseignants et les responsables de systèmes doivent faire face. Les écoles du monde entier ont besoin d’avis et de conseils éclairés sur la manière d’interagir avec l’IA, sur la base d’objectifs éducatifs clairement définis et d’une évaluation des risques. Les organisations internationales ont déjà déployé des efforts considérables pour élaborer des cadres éthiques et réglementaires liés à l’IA. Il est essentiel de veiller à protéger l’éducation également.

Les écoles du monde entier ont besoin de conseils éclairés sur la manière d’interagir avec l’IA

Outre les instruments réglementaires, les organismes nationaux et les fonctionnaires devraient aussi envisager d’établir de nouvelles formes de surveillance de l’IA dans l’éducation. Au Royaume-Uni, la Digital Futures Commission a récemment proposé un programme de certification des technologies éducatives. Ce dernier exigerait des entreprises qu’elles démontrent clairement leur valeur pédagogique et qu’elles mettent en place de solides protections pour les enfants avant de pouvoir intervenir dans les écoles.

Avec l’arrivée de l’IA, des organisations capables d’entreprendre des « audits algorithmiques » indépendants, c’est-à-dire des évaluations de ce que les systèmes automatisés pourraient entraîner, permettraient d’empêcher que l’IA soit déployée dans les écoles sans contrôle. La mise en place de telles protections nécessitera une volonté politique et une pression extérieure de la part d’organisations internationales influentes. Face au développement incontrôlé de l’IA, l’évaluation et la certification indépendantes pourraient être le meilleur moyen d’éviter que les écoles ne deviennent des sites d’expérimentation technologique permanente.

Un guide pour réglementer l’IA dans l’éducation

Fixer une limite d’âge à 13 ans pour l’utilisation de l’intelligence artificielle (IA) dans les salles de classe, adopter des normes en matière de protection des données et de la vie privée, ou encore proposer des formations spécifiques aux enseignants : telles sont quelques-unes des propositions du tout premier Guide mondial pour l’IA générative dans l’éducation et la recherche publié par l’UNESCO en septembre 2023.

Face au rapide essor des systèmes d’IA générative, l’Organisation appelle les gouvernements à réglementer leur utilisation dans les écoles, afin de garantir une approche centrée sur l’humain de leur exploitation à des fins éducatives.

Le guide détaille les techniques utilisées par l’IA générative et leurs implications dans le domaine éducatif. Il indique aux gouvernements les principales étapes à suivre pour les réglementer et se doter des cadres politiques nécessaires à leur utilisation éthique dans les écoles.

Il met également en garde contre les risques d’aggravation de la fracture numérique, et appelle les décideurs politiques à s’attaquer à ce problème. Les modèles actuels de ChatGPT sont en effet entraînés à partir de données provenant d’utilisateurs en ligne véhiculant les valeurs et les normes sociales dominantes du Nord.

Le public a découvert l’IA générative en novembre 2022 lors du lancement de ChatGPT, devenu l’application à la croissance la plus rapide de l’histoire. Capables de générer des textes, des images, des vidéos, de la musique et des codes de logiciels, les outils d’IA générative auront des conséquences considérables sur l’éducation et la recherche. En juin 2023, l’UNESCO a alerté sur le déploiement trop rapide de l’IA dans les écoles et le manque préoccupant de contrôle, de règles et de réglementation.

Pourtant, le secteur de l’éducation reste insuffisamment préparé à l’intégration éthique et pédagogique de ces outils à évolution rapide. Selon une récente enquête mondiale de l’UNESCO, menée auprès de plus de 450 écoles et universités, moins de 10 % d’entre elles disposent de politiques institutionnelles et/ou d’orientations formelles concernant l’utilisation des applications génératives de l’IA, en grande partie en raison de l’absence de réglementations nationales.

L'école à l'heure de l'intelligence artificielle
Le Courrier de l'UNESCO
octobre-décembre 2023
UNESCO
0000387029
订阅《信使》

Abonnez-vous