IA: le secteur de l’éducation est un secteur à haut risque


Une grande partie des prestataires de formation continue voient des risques éthiques dans l’utilisation de l’IA. C’est ce que révèle l’étude FOCUS de la FSEA. L’experte Insa Reichow explique comment ils peuvent néanmoins garantir une utilisation éthiquement acceptable de l’IA.

Selon les résultats de l’enquête 2024 de la FSEA auprès des prestataires de formation continue, 60 % des prestataires suisses estiment que l’IA comporte des risques éthiques pour la formation continue. Êtes-vous d’accord avec cette estimation ? Cette proportion vous paraît‑elle réaliste ? Et, le cas échéant, quels risques voyez‑vous?
La question posée dans l’enquête auprès des prestataires est très générale. Comme l’«IA» n’est pas définie plus précisément, nous ne pouvons que supposer ce que les personnes interrogées ont imaginé sous le terme «IA»: l’utilisation de modèles de langage pour aider à créer des projets de cours? Des générateurs d’images pour illustrer le matériel pédagogique? Un système de recommandation orientant vers des formations continues en ligne adaptées? Un système basé sur l’IA pour la sélection automatique des candidates et candidats? Il est certain que l’évaluation des risques éthiques diffère très nettement d’un scénario à l’autre. Pour évaluer correctement ces risques, il faut examiner des cas d’usage concrets. Les cadres peuvent aider à déterminer plus précisément les risques éthiques. Ils mettent en évidence les aspects éthiques qui jouent souvent un rôle dans les technologies d’IA. Des cadres d’analyse peuvent aider : le groupe d’experts de haut niveau sur l’IA de la Commission européenne retient notamment l’équité, l’explicabilité, la prévention des dommages et le respect de l’autonomie humaine comme principes d’une IA digne de confiance, auxquels s’ajoutent des exigences telles que la transparence, la robustesse et la sécurité techniques. Le fait que l’éducation soit un domaine sensible dans lequel nous devons faire preuve d’une prudence particulière se reflète également dans le règlement de l’Union européenne sur l’IA. L’e règlement sur l’IA. L’IA Act vise à réglementer certaines technologies d’IA dans toute l’UE et adopte pour cela une approche basée sur les risques. Le secteur de l’éducation est un secteur à haut risque qui impose des obligations particulières aux fournisseurs de technologies éducatives avant même que ces systèmes ne puissent être largement utilisés. Outre notre propre boussole éthique, que nous pouvons utiliser pour remettre en question les technologies, il y aura donc à l’avenir des exigences légales au sein de l’UE. Dans l’ensemble, ces développements autour du règlement sur l’IA, le nombre croissant de lignes directrices éthiques et les résultats de l’enquête auprès des prestataires montrent que nous sommes sensibilisés à la question de l’éthique. La prise de conscience de l’existence de risques éthiques nous amène, dans le meilleur des cas, à examiner de manière critique les technologies disponibles, à prendre des mesures pour rendre leur utilisation acceptable ou à rejeter en connaissance de cause certaines technologies ou certains usages.

Vous vous prononcez en faveur d’une «utilisation éthiquement inoffensive de l’IA» dans le domaine de l’éducation. Qu’est-ce que cela signifie exactement?
Il n’existe pas de technologies qui soient totalement exemptes de préoccupations éthiques pour toutes les parties concernées, des développeurs aux utilisateurs finaux en passant par les producteurs. Peut-être que le terme «éthiquement acceptable» serait plus approprié. Un examen de l’acceptabilité éthique comprend des aspects sociaux, culturels et basés sur des valeurs qui ne font pas (encore) partie de la jurisprudence officielle, mais qui sont essentiels pour une conception fiable et durable des systèmes techniques. Il s’agit d’aspects tels que ceux mentionnés ci-dessus, par exemple la transparence et l’équité. Une utilisation «éthiquement acceptable» d’une technologie suppose que tous ces aspects éthiques possibles aient été pris en compte pour l’application concrète. Pour ce faire, les différents acteurs, qu’il s’agisse des enseignants, des apprenants, des prestataires de formation continue ou des employeurs, doivent se parler. Qui profite de l’utilisation d’une technologie et comment ? Quels sont les inconvénients possibles, y compris à long terme, de l’utilisation d’une technologie dans notre contexte éducatif ? Constatons-nous, par exemple, que certains groupes de personnes ne peuvent pas utiliser un outil? Craignons-nous que nos apprenants ne puissent plus décider de manière autonome de leur propre parcours éducatif si des algorithmes déterminent automatiquement les meilleurs parcours d’apprentissage? Ce sont là quelques-unes des questions qu’il faut discuter ensemble, en fonction de la technologie concernée. Dans ce contexte, nous avons fait de bonnes expériences avec le modèle MEESTAR. MEESTAR est un modèle d’évaluation éthique des arrangements socio-techniques. Le modèle a été développé dans le contexte des soins et des systèmes d’assistance adaptés aux personnes âgées, mais il peut être facilement adapté aux technologies dans le domaine de l’éducation. Des ateliers de deux jours en général permettent d’approfondir les enjeux éthiques et les dimensions d’une technologie et d’en déduire des options d’action possibles pour la poursuite du projet ou le développement de la technologie. Certaines des nombreuses questions éthiques ne peuvent certainement pas être clarifiées à l’avance et mon plaidoyer en faveur du débat éthique ne signifie pas non plus qu’il faille tout discuter et ne plus rien essayer. Au contraire: il faut souvent une mise en pratique dans le contexte éducatif pour voir ce qu’une technologie apporte réellement. Si les différents aspects éthiques ont été examinés pour différents groupes d’acteurs, si des mesures ont été prises pour minimiser les risques autant que possible et si l’on parvient ensemble à la conclusion que l’utilisation d’une technologie dans un domaine éducatif particulier est judicieuse, alors je considérerais cette utilisation comme éthiquement acceptable.

Quelles mesures une organisation de formation continue peut-elle prendre pour utiliser l’IA de manière éthique?

Les organisations de formation continue doivent d’une part garder un œil sur la situation juridique. En particulier, les organisations de formation continue actives au sein de l’Union européenne doivent observer comment le règlement sur l’IA est effectivement mis en œuvre et quelles obligations en découlent pour l’organisation elle-même (mot-clé : formation aux compétences en IA). Il est possible que certains aspects du règlement sur l’IA s’imposent également en Suisse. D’un autre côté, il existe, en plus de ce domaine juridiquement contraignant, le domaine de l’éthique, qui peut être librement abordé. Malheureusement, il y a souvent peu de place pour les réflexions éthiques dans l’agitation des tâches du quotidien. Discuter ensemble, se mettre d’accord sur des principes éthiques et intégrer différents contextes professionnels demande du temps et un espace dédié. Je recommande vivement aux organismes de formation continue de prendre le temps d’organiser des ateliers spécifiques sur l’éthique. Il s’agit de prévoir des tables rondes de plusieurs heures au cours desquelles des représentants de différents groupes de parties prenantes se réunissent pour discuter des aspects éthiques pertinents dans leur propre contexte et réfléchir ensemble aux aspects critiques de l’utilisation prévue de la technologie. Ensuite, on peut réfléchir ensemble aux mesures à prendre pour atténuer ces aspects critiques. Jusqu’à présent, nous avons utilisé le modèle MEESTAR (voir ci-dessus) comme point de départ pour ces ateliers éthiques. Et pas de craintes à avoir: il n’est pas nécessaire d’avoir fait des études d’éthique pour mener de telles réflexions éthiques. Le bon sens et surtout la connaissance du groupe cible et du domaine d’application sont tout à fait suffisants pour mener des discussions enrichissantes. Dans le cadre de ces discussions éthiques, mais aussi dans le discours public, il est de plus en plus important de nommer ce que nous entendons exactement par «IA». Le champ des technologies basées sur l’IA est désormais si vaste, même dans le domaine de l’éducation, que nous devons être plus précis afin de mener des discussions qui font du sens.

Dr. Insa Reichow travaille depuis juin 2021 en tant que chercheuse senior au sein du laboratoire de technologie éducative du Centre allemand de recherche sur l’intelligence artificielle (DFKI). Elle a étudié les sciences cognitives et la recherche sur l’enseignement et l’apprentissage et étudie maintenant l’utilisation et l’impact des technologies basées sur l’IA (par exemple, les chatbots, les plateformes d’apprentissage adaptatives) dans les processus éducatifs, notamment dans le cadre du projet Metavorhaben de la ligne de financement BMBF INVITE (plateforme numérique de formation professionnelle continue).

Plus d’informations