La maggior parte degli enti di formazione continua ritiene che l’uso dell’intelligenza artificiale (IA) comporti rischi etici. Questo è quanto emerge dallo studio FOCUS condotto dalla FSEA. L’esperta Insa Reichow spiega come sia possibile comunque gestire l’IA in modo accettabile.
Secondo i risultati del sondaggio 2024 condotto dalla FSEA, il 60% degli enti svizzeri di formazione continua ritiene che l’IA comporti rischi etici per la formazione continua. È d’accordo con questa valutazione? Se sì, quali rischi etici vede nell’uso dell’IA nella formazione (continua)?
La domanda nel sondaggio svolto presso gli enti di formazione continua è molto generica. Poiché il termine “IA” non è definito in modo più dettagliato, possiamo solo supporre cosa gli intervistati abbiano immaginato: forse l’uso di modelli linguistici che assistono l’utente nella creazione di progetti didattici? O generatori di immagini per illustrare il materiale didattico? Un sistema di raccomandazione che consiglia corsi di formazione online adeguati? Un sistema basato sull’IA per la selezione automatica dei candidati? Certamente, la valutazione dei rischi etici varia sensibilmente da un caso all’altro. Per valutare in modo sensato i possibili rischi etici, dobbiamo quindi fare riferimento a tecnologie specifiche in casi d’uso concreti. I quadri di riferimento possono aiutare a determinare più precisamente i rischi etici. Essi mostrano quali aspetti etici spesso giocano un ruolo nelle tecnologie di IA. Il gruppo di esperti di alto livello della Commissione europea per l’IA ha definito, ad esempio, «equità», «spiegabilità», «prevenzione dei danni» e «rispetto dell’autonomia umana» come principi che caratterizzano i sistemi di IA affidabili. Ha inoltre definito altri sette requisiti fondamentali, come «trasparenza» e «robustezza tecnica e sicurezza». A questi requisiti piuttosto generici si aggiungono anche principi etici, che assumono un’importanza particolare nel settore della formazione, come ad esempio il fatto che l’uso della tecnologia debba contribuire a promuovere l’equità nella formazione o al raggiungimento di obiettivi formativi concreti. Il fatto che il settore della formazione sia un settore sensibile in cui dovremmo prestare particolare attenzione si riflette anche nel regolamento dell’Unione Europea sull’IA. Questo regolamento mira a regolamentare determinate tecnologie di IA a livello di UE adottando un approccio basato sul rischio. Il settore della formazione è considerato ad alto rischio, il che impone obblighi specifici ai fornitori di tecnologie formative, che devono soddisfare determinati requisiti prima ancora che questi sistemi possano essere utilizzati su larga scala. Oltre alla nostra bussola etica, che possiamo usare per mettere in discussione le tecnologie, in futuro ci saranno anche requisiti legali a livello dell’Unione Europea. Nel complesso, questi sviluppi relativi al regolamento sull’IA, il numero in continua crescita di linee guida etiche e anche i risultati del sondaggio svolto presso gli enti di formazione dimostrano che siamo sempre più sensibilizzati al tema dell’etica. La consapevolezza dell’esistenza di rischi etici ci porta, nella migliore delle ipotesi, a esaminare criticamente le tecnologie disponibili, ad adottare misure per rendere il loro uso responsabile o anche all’esclusione consapevole di determinate tecnologie o ambiti di applicazione.
Lei è a favore di un «uso eticamente ineccepibile dell’IA» nel campo della formazione. Cosa significa esattamente?
Non esistono tecnologie completamente prive di implicazioni etiche per tutte le parti coinvolte, dagli sviluppatori ai produttori fino agli utenti finali. Forse “eticamente accettabile” sarebbe quindi una formulazione migliore. Un esame dell’accettabilità etica comprende aspetti sociali, culturali e basati sui valori che, sebbene non facciano (ancora) parte della giurisprudenza ufficiale, sono fondamentali per una progettazione affidabile e sostenibile dei sistemi tecnici. Si tratta di aspetti come quelli sopra menzionati, ad esempio la trasparenza e l’equità. L’uso “eticamente accettabile” di una tecnologia presuppone che tutti questi possibili aspetti etici siano stati presi in considerazione per lo scopo specifico dell’uso. A tal fine, i vari attori, siano essi formatori, studenti, enti di formazione continua o datori di lavoro, devono dialogare tra loro. Chi beneficia dell’uso di una tecnologia e in che modo? Quali sono i possibili svantaggi, anche a lungo termine, di un uso nel nostro contesto formativo? Vediamo, ad esempio, che alcuni gruppi di persone sono esclusi dall’uso di uno strumento? Temiamo che i nostri studenti non possano più decidere autonomamente il proprio percorso formativo se gli algoritmi prescrivono automaticamente i percorsi di apprendimento ritenuti migliori? Queste sono solo alcune delle domande che devono essere discusse insieme in modo specifico per ciascuna tecnologia. In questo contesto abbiamo avuto buone esperienze con il modello MEESTAR. MEESTAR è un modello per la valutazione etica degli accordi socio-tecnici. Il modello è stato sviluppato nel contesto dell’assistenza infermieristica e dei sistemi di assistenza adeguati all’età, ma è facilmente adattabile alle tecnologie nel campo della formazione. In workshop che solitamente durano due giorni, vengono analizzate in profondità le sfide e le dimensioni etiche di una tecnologia e vengono derivate possibili opzioni di azione per l’ulteriore sviluppo del progetto o della tecnologia. Alcune delle numerose questioni etiche non possono essere chiarite in anticipo. Allo stesso modo il mio appello a un dibattito etico non deve essere interpretato come un invito a discutere all’infinito senza sperimentare più nulla. Al contrario: spesso è necessario l’uso pratico nella realtà formativa per vedere quali sono gli effetti reali di una tecnologia. Se i vari aspetti etici sono stati analizzati per i diversi gruppi di attori, sono state adottate misure per ridurre al minimo i rischi e si è giunti alla conclusione comune che l’uso di una tecnologia in un determinato settore della formazione sia ragionevole, allora considererei questo uso eticamente accettabile.
Quali misure può adottare un’organizzazione di formazione continua per utilizzare l’IA in modo eticamente accettabile?
Da un lato, le organizzazioni di formazione continua dovrebbero tenere d’occhio la situazione giuridica. In particolare, le organizzazioni di formazione continua attive all’interno dell’Unione Europea dovrebbero monitorare come viene attuata concretamente la normativa sull’IA e quali obblighi derivano da essa per la loro attività (parola chiave: formazione sulle competenze in materia di IA). È possibile che alcuni aspetti del regolamento sull’IA si affermino come standard anche in Svizzera. D’altra parte, oltre a questo ambito giuridicamente vincolante, esiste anche un ambito etico che può essere modellato liberamente. Purtroppo, spesso rimane poco spazio per le riflessioni etiche nella frenesia della vita quotidiana. Discutere insieme, comunicare i principi etici e coinvolgere diversi background professionali richiede tempo e un luogo dedicato. Consiglio vivamente alle organizzazioni di formazione continua di dedicare del tempo alla realizzazione di workshop specifici sull’etica. In altre parole, di programmare sessioni di discussione approfondite di diverse ore in cui i rappresentanti di vari gruppi di stakeholder si riuniscono per discutere quali aspetti etici siano effettivamente rilevanti per il proprio contesto e riflettere insieme su dove l’uso previsto della tecnologia potrebbe essere critico. Successivamente, si può riflettere insieme su quali misure possano essere adottate per ridurre questi aspetti critici. Finora abbiamo utilizzato il modello MEESTAR (vedi sopra) come punto di partenza per questi workshop etici. E non preoccupatevi: non è necessario aver completato gli studi di etica per condurre tali riflessioni. Il buon senso e soprattutto la conoscenza del gruppo target e dell’area di applicazione sono sufficienti per condurre discussioni proficue. Sia nelle discussioni etiche specifiche sia nel dibattito pubblico, diventa sempre più importante definire esattamente cosa intendiamo per “IA”. Il campo delle tecnologie basate sull’IA è ormai così vasto anche nel settore della formazione, che dobbiamo essere più specifici per condurre discussioni pertinenti.
La dottoressa Insa Reichow lavora da giugno 2021 come ricercatrice senior presso l’Educational Technology Lab del Centro tedesco di ricerca sull’intelligenza artificiale (DFKI). Ha studiato scienze cognitive e ricerca sull’insegnamento e l’apprendimento e ora sta studiando l’uso e l’impatto delle tecnologie basate sull’IA (ad esempio chatbot, piattaforme di apprendimento adattivo) nei processi formativi, tra l’altro nel progetto generale della linea di finanziamento BMBF INVITE (piattaforma digitale per la formazione professionale continua).