Marzo 2026

 

Hai un software che utilizza modelli di IA? Lavori nell’istruzione, nella formazione o nelle risorse umane? 

Ti aiutiamo a capire cosa cambia con l’AI Act. 

Negli ultimi anni, l’intelligenza artificiale è entrata silenziosamente nei processi più delicati della vita professionale ed educativa: la selezione dei candidati, la valutazione degli studenti, la profilazione delle competenze, il monitoraggio delle performance, l’analisi di potenziali mismatch formativi. 

Per molte aziende e istituzioni formative, tutto questo è ormai “normale”.
Quello che non è ancora normale — ma sta per diventarlo — è il nuovo quadro normativo: l’AI Act europeo. 

Con l’AI Act, l’UE ha messo nero su bianco un concetto fondamentale: 

Alcuni usi dell’IA hanno un impatto talmente forte sulle persone che devono essere considerati “ad alto rischio”. Questo vale esattamente per i due mondi in cui tu operi: istruzione/formazione e risorse umane/gestione del personale. 

 

Perché proprio istruzione, formazione e risorse umane? 

Perché questi settori sono tra quelli che più incidono sulle opportunità di vita delle persone.
L’AI Act lo dice chiaramente: ogni sistema che decide o contribuisce a decidere chi può accedere a un percorso formativo, chi viene ammesso a un istituto, chi supera una valutazione, chi viene assunto, promosso o licenziato, ricade automaticamente tra i sistemi ad alto rischio. 

Significa che se utilizzi tool di: 

  • selezione automatica dei CV, 
  • valutazione delle soft skill, 
  • scoring degli studenti, 
  • proctoring o monitoraggio durante gli esami, 
  • valutazione delle performance lavorative, 
  • sistemi di assegnazione in un percorso formativo, 
  • ecc. 

sei già dentro una delle categorie più regolamentate dell’intero AI Act. 

 

Il primo passo è capire come la tua azienda si inquadra all’interno del Regolamento. 

 

Sei un fornitore: 

Potresti esserlo se sviluppi un software che integra un modello di IA, anche non tuo.
In questo caso il regolamento ti chiede molto: devi garantire che l’intero sistema — non solo il modello — sia conforme. 

Il che significa: 

  • predisporre documentazione tecnica dettagliata, 
  • implementare un sistema di gestione della qualità, 
  • assicurare sicurezza, robustezza e mitigazione dei bias, 
  • fornire istruzioni chiare e complete, 
  • registrare il sistema nella banca dati UE e apporre la marcatura CE, 
  • monitorare il sistema nel tempo e correggerlo se qualcosa va storto. 

In altre parole: se lo sviluppi o lo integri, ne rispondi. 

 

Sei un deployer:

Sei un deployer quando utilizzi un sistema sviluppato da altri come strumento del tuo lavoro quotidiano. 

Ad esempio l’azienda che usa un ATS con IA, l’università che utilizza un sistema di valutazione automatica, l’ente formativo che si affida a un algoritmo per lo scoring dei candidati, la società che fa coaching o formazione basata su analisi predittive. 

Il regolamento impone di usare il sistema con cognizione di causa, rispettando le istruzioni del fornitore e garantendo sempre una sorveglianza umana competente. Devi informare candidati, studenti o dipendenti del fatto che l’IA stia intervenendo nel processo e, in alcuni casi, devi anche effettuare una valutazione d’impatto sui diritti fondamentali, soprattutto se appartieni al settore pubblico o svolgi funzioni equiparabili. 

 

La provenienza dei modelli 

Utilizzi modelli provenienti dagli Stati Uniti o da altri paesi extraUE?
Il regolamento prevede che il fornitore extraUE debba nominare un rappresentante autorizzato nell’UE e fornirti informazioni complete: 

  • documentazione tecnica, 
  • sintesi dei set di dati, 
  • limiti e rischi del modello. 

 

La qualità della sorveglianza umana 

L’AI Act non vieta l’IA nei processi HR o educativi, chiede però che chi la usa sia in grado di comprenderla, valutarla e correggerla, soprattutto quando produce risultati inattesi o potenzialmente discriminatori. 

 

Il modo in cui informi gli utenti 

Studenti, candidati, apprendenti, dipendenti: tutti devono sapere quando un sistema di IA viene utilizzato per prendere decisioni che li riguardano. Una semplice informativa non basta, servono spiegazioni chiare e precise. 

 

Tutti questi aspetti devono essere approfonditi ed eventualmente regolamentati. Ormai l’intelligenza artificiale è parte integrante dei processi lavorativi e non solo, e di conseguenza necessità di un’attenta analisi dei rischi e degli impatti sulle persone. 

 

 

 Per ulteriori info contattaci a o al 327 0283651, chiamando o lasciando un messaggio whatsapp.