L’étude FOCUS de la FSEA montre que les prestataires de la formation continue en Suisse attendent beaucoup de l’intelligence artificielle (IA), mais ne disposent pas encore des compétences nécessaires pour mettre en place cette technologie. Harald Graschi, conseiller en formation et expert en IA, met les entreprises devant leurs responsabilités.
Comme l’a montré l’enquête 2024 de la FSEA, de nombreux prestataires n’avaient pas encore utilisé l’IA au printemps 2024. Le principal obstacle à son utilisation réside dans le manque de compétences et de connaissances dans les organisations. Pourtant, leur personnel se montre tout à fait disposé à utiliser l’IA. Quel regard portez-vous sur ces résultats?
Nous sommes face à une évolution importante, tant sur le plan technologique que social, qui a pris de court de nombreuses organisations depuis ces deux dernières années. Il est encourageant de constater que dans 80% des institutions de formation continue, le personnel est disposé à utiliser l’IA. De nombreuses personnes ont déjà testé ChatGPT. Cependant, quand on est débutant et qu’il s’agit d’acquérir une expérience, voire une expertise, il est nécessaire de consacrer de nombreuses heures à l’apprentissage de cette technologie. Souvent, une personne ne peut pas se le permettre ou ne souhaite pas le faire. Ce serait plutôt le rôle des organisations de développer une stratégie pour intégrer des outils d’IA à leurs processus et former en conséquence leur personnel. Cependant, pour mettre en place une stratégie opérationnelle en matière d’IA, les organisations ont besoin de ressources, d’expertise et de personnel afin de tester des champs de développement et des scénarios didactiques possibles, échanger les bonnes pratiques et mener une réflexion sur ces thèmes. Les institutions de formation continue, dans lesquelles de nombreux formateurs et formatrices sont employés à titre accessoire et dont la structure administrative est allégée, n’ont pas les moyens humains et financiers pour mener à bien de tels projets dans un laps de temps court. De plus, la charge de travail qui en résulte doit se justifier par une nécessité économique urgente ou par des effets de synergie importants. Or, c’est rarement le cas dans le secteur de la formation continue en Suisse, qui est structurée en petits territoires. Il est donc nécessaire d’élaborer des concepts qui dépassent les frontières géographiques et linguistiques de la Suisse. De tels concepts doivent par exemple porter sur l’individualisation des processus d’apprentissage et sur l’utilisation d’assistants numériques afin de permettre à chacune et chacun de participer à la formation continue. Les hautes écoles qui disposent de départements de formation continue spécialisés dans les TIC et les entreprises internationales qui possèdent une stratégie en matière d’apprentissage et de développement remplissent ces conditions.
Jusqu’à présent, seuls quelques prestataires ont élaboré des directives internes en matière d’utilisation de l’IA. La plupart laissent leurs collaboratrices et collaborateurs le choix d’utiliser ou non l’IA. Quels sont les aspects que les organisations doivent prendre en compte si elles veulent utiliser l’IA en toute sécurité?
D’après l’«étude de benchmarking eLearning 2024» concernant l’IA dans la formation en entreprise, environ 70% des entreprises se trouvent dans une phase d’exploration et d’expérimentation. Les résultats de l’enquête de la FSEA auprès des prestataires font ressortir un résultat similaire. Chaque semaine, une multitude d’offres inonde le marché avec des produits plus ou moins élaborés. Je constate – et l’enquête le confirme – qu’on laisse souvent aux formatrices et formateurs le soin de décider ce qu’ils utilisent. À mon sens, il serait souhaitable que la direction ait davantage d’influence sur cette question, qu’elle fixe des règles-cadres et qu’elle crée des accès à la technologie. Cela signifie aussi que ces coûts doivent être pris en charge par l’organisation. Un autre thème important est la sécurité des données. Dès qu’il est question de thèmes comme le soutien à l’apprentissage et le contrôle des connaissances, il faut clairement déterminer avec quels contenus on alimente les plateformes d’IA. Que deviennent les données? Où sont-elles enregistrées et à quelles fins sont-elles réutilisées? Nous sommes ici en présence d’une «zone grise» qui n’a toujours pas été clarifiée. Il serait naïf de croire que les géants technologiques continueront de mettre à disposition ces services gratuitement et sans modèle de monétarisation. C’est notamment quand il n’y a rien à payer que les données des utilisateurs et les contenus sont la véritable monnaie d’échange. Cela pose peu problème lorsque cela concerne de simples exercices pour tester les aptitudes et les connaissances. En revanche, c’est plus problématique lorsqu’il s’agit de tâches orientées sur les compétences, qui reflètent une situation ou des conditions pratiques précises.
Deux tiers des prestataires partent du principe que l’IA entraîne un changement important concernant les compétences exigées dans les organisations. Selon vous, dans quelle mesure les compétences du personnel de la formation (continue) changent-elles?
Le règlement européen sur l’IA est entré en vigueur en 2025. Il oblige les entreprises à faire en sorte que leur personnel dispose de compétences suffisantes en matière d’IA (AI Literacy). On entend par cette notion la capacité à «utiliser les systèmes d’IA en toute connaissance de cause et à prendre conscience des possibilités et des risques que comporte l’IA, ainsi que des préjudices potentiels qu’elle peut causer» (chap. I, art. 3, al. 56). Ce règlement s’applique aussi à la Suisse. Les résultats de l’enquête de la FSEA auprès des prestataires mettent en évidence deux domaines pertinents concernant le profil de compétences du personnel de formation: la création de supports didactiques ainsi que la planification et la conception des offres. Avec des prompts correctement formulés, des personnes débutantes peuvent rapidement obtenir de premiers résultats qui sont ensuite exploitables. L’adaptation de textes à des niveaux linguistiques spécifiques au groupe cible ou la traduction de textes et de fichiers audio donnent déjà des résultats remarquables et ces possibilités sont utilisées. Ces premiers domaines d’application utilisent des outils connus et peuvent être délégués à des formatrices et formateurs employés à titre accessoire, moyennant une charge de travail raisonnable. Indépendamment de ces aides numériques, il faut continuer d’accorder une place importante aux compétences humaines essentielles: l’empathie pour le groupe cible, le perfectionnement créatif permanent des processus d’enseignement et d’apprentissage, sans oublier une approche critique. Sur les plans opérationnel et stratégique d’une organisation, il convient de déterminer dans quelles situations et de quelle manière une application d’IA pertinente doit être utilisée. Le cercle de personnes concernées clarifie non seulement la question «Comment j’utilise cela?», mais intègre aussi la perspective technologique: «Comment cela fonctionne-t-il?» ainsi que la question importante d’un point de vue socioculturel: «Quel effet cela produit-il?». Nous devons la devise suivante à Francis Bacon: «La connaissance est le pouvoir». Nous devons veiller à ce que toutes les données ne tombent pas entre les mains de quelques géants du numérique axés sur l’économie de marché, ce qui conduirait à un monopole de l’information.
Selon moi, les thèmes suivants sont prioritaires lorsque des systèmes d’IA sont utilisés:
– Orientation et éthique: les organisations doivent s’assurer que les applications d’IA sont utilisées de manière équitable, transparente et dans le respect des valeurs de l’entreprise. Les ordinateurs et les systèmes d’IA exécutent leur travail inlassablement et conformément au mandat et aux paramètres qu’on leur fournit. Ce sont les êtres humains qui définissent vers quoi ces systèmes doivent s’orienter. Un objectif qui n’a pas été mûrement réfléchi peut avoir des conséquences catastrophiques s’il ne peut plus être exécuté de manière compréhensible par les machines (problème d’alignement).
– Evaluation critique des résultats. Il faut des personnes qui contrôlent les résultats et qui évaluent leur cohérence surtout lorsque l’on gagne du temps pour obtenir des résultats automatiques ou pour prendre des décisions.
– Gestion des risques liés à l’utilisation de l’IA. L’implication de groupes d’expertes et d’experts en IA et de responsables de la protection des données peut permettre d’identifier à temps des risques potentiels et de définir des mesures.
– Qualité et protection des données. Parallèlement au respect strict des dispositions sur la protection des données, l’ensemble du personnel doit être sensibilisé à cette thématique et formé en conséquence. La direction des cours pourra certainement compléter cette liste. Les compétences concrètes varient beaucoup selon l’orientation stratégique et les décisions de l’organisation.
Harald Graschi est conseiller en formation et pédagogue en médias. Il possède une longue expérience dans la formation initiale et continue de formatrices et formateurs professionnels et de formateurs et formatrices pour adultes. Depuis la création d’un cybercafé avec un groupe d’élèves en 1993, il s’intéresse aux innovations technologiques et à leur mise en œuvre dans la didactique des médias et est impliqué dans leur conception.