Che l’intelligenza artificiale trovi applicazione nella formazione continua è chiaro. Ma in che modo? Lo ha discusso la FSEA in un gruppo di esperti appositamente costituito. Conclusione: un aumento della produttività non è affatto scontato.
L’intelligenza artificiale si sviluppa rapidamente e, oltre a grandi sfide, offre anche un enorme potenziale per la formazione continua. La FSEA segue da vicino gli sviluppi attuali e sostiene il settore affinché utilizzi l’IA in modo sensato e sviluppi le competenze necessarie a tal fine.
Il 7 novembre 2025 si è riunito un gruppo di esperti costituito dalla FSEA, composto da specialisti del settore della formazione continua e ricercatori nel campo dell’IA, per un secondo scambio aperto su questo tema.
Aumento dell’efficienza grazie all’IA?
Una parte significativa della discussione ha riguardato la domanda se l’IA porti effettivamente a processi di lavoro e d’apprendimento più efficienti. Le valutazioni degli esperti sono state variegate: sebbene l’IA possa svolgere determinati compiti di routine e creare così spazio per attività creative, un aumento della produttività non è affatto scontato. Ad esempio, un panorama di strumenti dinamico e spesso confuso richiede uno sforzo aggiuntivo, frequenti cambi di strumenti, differenze di qualità o cambiamenti improvvisi nel comportamento dei modelli richiedono un continuo adattamento. L’efficienza dipende quindi fortemente dal contesto e non può essere definita solo in termini di risparmio di tempo. Il gruppo concorda: se utilizzata in modo appropriato dal punto di vista tecnico e didattico, l’IA può portare a un aumento della produttività. Tuttavia, molti lavoratori sono però ancora incerti su come utilizzare concretamente l’IA per aumentare la propria produttività, il che indica una crescente necessità di qualificarsi.
Un uso consapevole dell’IA è fondamentale
Gli esperti hanno messo in guardia da un uso non consapevole dell’IA. L’esperienza pratica dimostra che discenti e collaboratori spesso accettano i risultati dell’IA senza verificarli, con il rischio di errori. Inoltre, è stato sottolineato che l’IA viene sempre più integrata in modo invisibile negli strumenti digitali di uso quotidiano. Molte persone non sarebbero più in grado di riconoscere quando i contenuti sono generati dall’IA. Ciò cambia il modo in cui le informazioni vengono trovate, elaborate e valutate. Gli utenti dovrebbero essere in grado di riconoscere in quali condizioni l’IA è effettivamente più affidabile o efficiente dell’uomo. A tal fine è fondamentale la capacità di comprendere i risultati dell’IA, di metterli in discussione in modo critico e di interpretarli in modo competente.
Evitare il divario digitale
Durante lo scambio è stato anche affrontato il tema di un possibile aumento del divario digitale. In particolare, le persone con competenze digitali limitate rischiano di essere escluse dagli sviluppi tecnologici. Il rischio che gli sviluppi tecnologici accentuino le disuguaglianze esistenti aumenta. Sono quindi necessari programmi e modelli completi che supportino tempestivamente le persone con scarse conoscenze e le accompagnino nello sviluppo delle competenze.
Sistemi chiusi
È stato inoltre sottolineato che i sistemi di IA chiusi e specializzati sono spesso più affidabili, in ambito professionale, dei modelli aperti e generici. Tali sistemi esperti sono considerati un modello di business potenzialmente promettente, anche se non è chiaro come si svilupperà il mercato a livello regionale.
Processi d’apprendimento nell’uso dell’IA
Infine, è stata affrontata la questione di come garantire i processi d’apprendimento quando l’IA assume gran parte dei compiti. Il messaggio emerso è che, per uno sviluppo sostenibile delle competenze, è fondamentale che i discenti siano in grado di comprendere i risultati, metterli in discussione criticamente e argomentarli con cognizione di causa. L’IA non deve essere intesa come una scorciatoia, ma va integrata consapevolmente nei processi di insegnamento e apprendimento. Lo sviluppo delle proprie capacità di pensiero critico e di risoluzione dei problemi rimane quindi fondamentale. C’era inoltre consenso sul fatto che la comprensione dei contenuti rimanga imprescindibile, poiché senza conoscenze di contenuto è difficile valutare i risultati dell’IA.
Hackathon FSEA a marzo
Anche l’hackathon organizzato dalla FSEA (11-12 marzo 2026) affronterà questo tema. Nell’ambito di diverse sfide, saranno sviluppate idee innovative su come l’IA possa essere utilizzata in modo sensato e proficuo nella pratica e nelle istituzioni di formazione continua. Le persone partecipanti avranno così l’opportunità di entrare in contatto con altri esperti del settore, discutere con loro e contribuire a plasmare insieme il futuro della formazione continua.

