«Per mettere in atto una strategia sull’IA che funzioni, le organizzazioni hanno bisogno di risorse, know-how e personale»


Lo studio FOCUS condotto dalla FSEA evidenzia come in Svizzera gli enti di formazione continua ripongano grandi speranze nell’intelligenza artificiale, ma non dispongano ancora delle competenze necessarie per impiegarla. A questo proposito, Harald Graschi, consulente in materia di formazione ed esperto di IA, chiama in causa le aziende.

Come risulta dal sondaggio condotto dalla FSEA nel 2024 presso gli istituti di formazione continua, molti enti nella primavera del 2024 non avevano ancora introdotto l’IA. L’ostacolo principale sono le scarse competenze e le lacune di conoscenze delle organizzazioni, sebbene da parte del personale la disponibilità sia generalmente grande. Come valuta questi risultati?
Ci troviamo di fronte a uno sviluppo tecnologico e sociale decisivo, che negli ultimi due anni ha travolto numerose organizzazioni. È incoraggiante vedere come nell’80 percento delle istituzioni di formazione continua i collaboratori e le collaboratrici siano fondamentalmente disposti/e a utilizzare l’intelligenza artificiale. In molti hanno già sperimentato l’uso di ChatGPT. Tuttavia, per sviluppare una competenza o addirittura un know-how partendo da zero ci vogliono molte ore di intensa applicazione, ore che, di norma, il singolo non può o non è pronto a investire. Sarebbe, pertanto, compito delle organizzazioni sviluppare strategie su se e come integrare gli strumenti di IA nei propri processi e provvedere all’opportuna formazione dei propri dipendenti. Per mettere in atto una strategia sull’IA che funzioni, le organizzazioni hanno però bisogno di risorse, know-how e personale per testare possibili aree di sviluppo e ipotesi didattiche, scambiare best practice e riflettere. È impossibile realizzare simili progetti nel breve termine in enti di formazione continua privi delle necessarie risorse personali o finanziarie, con strutture amministrative snelle e formatrici e formatori che per la maggior parte esercitano la professione come secondo lavoro. In più, l’investimento andrebbe giustificato con un’urgenza di mercato o un alto effetto sinergico, cosa che proprio nel settore della formazione continua di una realtà geografica frammentata come la Svizzera si verifica raramente. Sarebbe, quindi, consigliabile concepire programmi transfrontalieri e interlinguistici, per esempio per la personalizzazione dei processi d’apprendimento e l’impiego di assistenti digitali, onde garantire a tutti la possibilità di partecipare alla formazione. Le premesse le troviamo in particolare presso istituti universitari con reparti di aggiornamento in materia di TIC e aziende dotate di una strategia di Learning & Development operanti a livello internazionale.

Finora sono ancora pochi gli enti di formazione che si sono dotati di regolamenti interni sull’uso dell’IA. La maggior parte delle aziende lascia il personale libero di decidere da sé se e come impiegare l’intelligenza artificiale. Quali precauzioni devono prendere le organizzazioni se vogliono utilizzare l’IA in tutta sicurezza?
Dando uno sguardo allo «Studio di benchmark sull’e-learning del 2024» emerge che nell’ambito della formazione aziendale quasi il 70 percento delle imprese si trova nella fase di esplorazione e sperimentazione dell’IA. I risultati del sondaggio condotto dalla FSEA presso gli istituti di formazione forniscono un quadro simile. Ogni settimana una miriade di offerte inonda il mercato con prodotti più o meno validi. Qui osservo – e il sondaggio lo conferma – che spesso si lascia ai formatori e alle formatrici la decisione sugli strumenti da impiegare. A mio parere sarebbe auspicabile che le direzioni intervenissero di più sotto questo aspetto e che stabilissero un quadro di riferimento e un approccio chiari. Ciò, però, significa anche che i costi andrebbero sostenuti dall’organizzazione stessa. Un aspetto chiave è poi la sicurezza dei dati: parlando di sostegno all’apprendimento e valutazioni va considerato attentamente quali contenuti far elaborare alle piattaforme di IA. Che fine fanno i dati, dove vengono conservati e a che scopo vengono utilizzati? Qui vedo una vasta area grigia su cui non si è ancora fatta luce. È ingenuo credere che i giganti della tecnologia continueranno a offrire questi servizi gratuitamente e senza un modello di monetizzazione. Proprio laddove non si paga nulla, i dati dell’utente e i contenuti sono la vera moneta. Il problema si pone meno quando si ha a che fare con semplici esercizi di abilità o di conoscenza, ma è serio quando si devono svolgere compiti sulle competenze che riflettono la propria situazione o la propria pratica lavorativa.

Due terzi delle istituzioni di formazione continua è convinta che l’IA porterà a una forte trasformazione delle competenze richieste nelle organizzazioni. Come stima che cambieranno le competenze del personale attivo nel campo dell’insegnamento e della formazione continua?
Nel 2025 entra in vigore il regolamento dell’UE sull’IA che obbliga le aziende a fornire al proprio personale competenze di IA (AI Literacy) in misura adeguata. Ciò implica che i collaboratori e le collaboratrici devono essere in grado di «utilizzare in modo informato i sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che essa può causare» (cap. I, art. 3, c. 56). Questo è rilevante anche per noi in Svizzera. Per quanto riguarda il profilo di competenze del personale docente, dai risultati del sondaggio della FSEA presso gli enti di formazione emergono due ambiti rilevanti: la creazione di materiali didattici e la pianificazione e organizzazione di offerte. Sapendo come dare istruzioni correttamente (prompt) anche i e le principianti sono in grado di ottenere presto primi risultati adatti ad essere rielaborati in passaggi successivi. Anche l’adeguamento di testi per il livello linguistico di un qualche gruppo target specifico e la traduzione di testi scritti od orali in altre lingue funzionano già egregiamente e trovano ampio impiego. Questi campi d’impiego elementari basati su strumenti conosciuti si possono affidare con poco sforzo anche a formatori e formatrici che insegnino come secondo lavoro. Indipendentemente da questi ausili digitali, tuttavia, si farà bene a lasciare l’attenzione sulle qualità umane centrali: l’empatia per la categoria di destinatari, lo sviluppo continuo e creativo dei processi di insegnamento e apprendimento e il pensiero critico. A livello operativo e strategico le organizzazioni devono distinguere e decidere quando e come ricorrere a un’applicazione di IA affidabile. Questa cerchia di persone non si limita a rispondere al quesito «Come si usa?», ma comprende anche dal punto di vista tecnologico il quesito «Come funziona?» e da quello socio-culturale «Che effetto produce?». Francesco Bacone disse: «Sapere è potere». Faremmo bene a stare attenti a non far finire i nostri dati tutti presso una manciata di giganti dell’high tech orientati al profitto così da evitare che sorga un monopolio delle informazioni.

Secondo me, quando si decide di impiegare un sistema di IA i temi prioritari sono i seguenti:

– linea di condotta ed etica: le organizzazioni farebbero bene ad assicurarsi che le applicazioni di IA vengano impiegate in modo equo, trasparente e in conformità ai valori aziendali. I computer e i sistemi di IA svolgono il proprio lavoro indefessamente e con grande efficienza, in conformità all’incarico e ai parametri per loro definiti: i loro punti di riferimento vengono dettati da esseri umani. Se i comandi impartiti non vengono vagliati bene in tutti i loro aspetti, tuttavia, le conseguenze possono essere catastrofiche nel momento in cui le macchine li eseguano automaticamente, ma in maniera non più tracciabile (problema dell’allineamento).

– monitoraggio critico dei risultati. Nel momento in cui si risparmia tempo per ottenere risultati automatizzati o addirittura prendere decisioni, ci vogliono esseri umani che monitorino i risultati e li valutino dal punto di vista della coerenza.

– gestione del rischio dell’uso dell’IA. Il coinvolgimento di gruppi di esperti sull’IA e addetti alla sicurezza dei dati può aiutare a riconoscere precocemente i potenziali rischi e a stabilire le opportune misure.

– qualità e protezione dei dati. Oltre ad attenersi scrupolosamente alle disposizioni sulla protezione dei dati, è necessario sensibilizzare e formare tutto il personale su questo delicato argomento. A livello di singolo formatore o singola formatrice l’elenco si potrebbe ulteriormente allungare; tuttavia, le competenze concrete dipendono ampiamente dalle finalità e dalle decisioni della singola organizzazione.

Harald Graschi è consulente educativo e insegnante di educazione ai media con anni di esperienza nel settore della preparazione e dell’aggiornamento di formatori aziendali e operatori nella didattica per adulti. Fondatore di un Internet café con un gruppo di alunni nel 1993, da allora si interessa di e partecipa all’ideazione di innovazioni tecnologiche e alla loro presentazione nell’ambito dell’educazione ai media.

Maggiori informazioni