L’intelligenza artificiale può rivoluzionare la sicurezza sul lavoro, ma il nuovo Regolamento UE impone regole stringenti per evitare rischi etici e giuridici. Le aziende devono trovare un equilibrio tra innovazione e conformità, coinvolgendo tutti gli attori della prevenzione.

Cosa tratta:

L’intelligenza artificiale (IA) sta cambiando il volto della sicurezza sul lavoro. Non si tratta più solo di caschi, segnaletica e procedure: oggi la prevenzione passa anche per algoritmi capaci di anticipare i rischi, monitorare in tempo reale le condizioni dei lavoratori e guidare sistemi automatizzati di protezione. Ma questa rivoluzione tecnologica porta con sé una sfida cruciale: come integrare l’IA nei luoghi di lavoro senza compromettere diritti, privacy e sicurezza? Il nuovo Regolamento UE 2024/1689 sull’intelligenza artificiale, entrato in vigore da poco, cerca di rispondere a questa domanda. È il primo quadro normativo europeo che disciplina l’uso dell’IA con un approccio basato sul rischio. E proprio qui nasce il nodo: molte applicazioni IA per la salute e sicurezza sul lavoro (SSL) rischiano di essere classificate come “ad alto rischio”, con conseguenti obblighi stringenti per aziende e sviluppatori.

Dalla prevenzione reattiva alla sicurezza predittiva

L’IA promette di trasformare la SSL da un sistema reattivo a uno predittivo. Grazie alla capacità di analizzare grandi quantità di dati, può:

  • Anticipare situazioni pericolose,
  • Rilevare segnali fisiologici di stress o affaticamento,
  • Personalizzare la formazione sulla sicurezza,
  • Supportare le decisioni dei responsabili HSE.

Tuttavia, l’adozione di queste tecnologie non è priva di ostacoli. Le preoccupazioni riguardano la privacy dei dati, il bias algoritmico, l’opacità dei modelli (la cosiddetta “scatola nera”) e la responsabilità in caso di errore.

Il Regolamento UE: cosa cambia per la sicurezza sul lavoro

Il Regolamento UE classifica i sistemi IA in quattro categorie:

  • Proibiti (rischio inaccettabile): come il social scoring.
  • Ad alto rischio: soggetti a requisiti severi.
  • A rischio limitato: con obblighi di trasparenza.
  • A rischio minimo: liberamente utilizzabili.

Le applicazioni IA in SSL rientrano spesso nella categoria “alto rischio”, soprattutto se coinvolgono la gestione dei lavoratori, la valutazione delle performance o il controllo di infrastrutture critiche. Questo comporta:

  • Sistemi di gestione del rischio,
  • Supervisione umana,
  • Robustezza e cybersecurity,   
  • Valutazioni di conformità, anche da enti terzi.


Ambiguità e interpretazioni: il ruolo della lingua e del contesto

Il Regolamento presenta alcune ambiguità linguistiche che complicano l’applicazione pratica. Ad esempio, il termine “infer” (usato nella versione inglese) è tradotto in italiano con “dedurre”, in francese con “déduire” e in tedesco con “ableiten”. Queste differenze possono influenzare la classificazione di un sistema come IA e generare incertezza giuridica.Inoltre, l’espressione “può influenzare ambienti fisici o virtuali” è volutamente ampia: anche un sistema IA che fornisce semplici raccomandazioni potrebbe rientrare nel perimetro regolamentato, se il suo output ha un impatto potenziale sul processo decisionale.

Cosa dice la legge

Il Regolamento UE 2024/1689 stabilisce che un sistema IA è “ad alto rischio” se:

  • E' utilizzato per la gestione dei lavoratori,
  • Influisce significativamente sulle decisioni,
  • Introduce nuovi rischi per la salute o la sicurezza.

Tuttavia, l’articolo 6, paragrafo 3, prevede deroghe se:

  • Il sistema ha solo funzione preparatoria o di supporto,
  • Non modifica sostanzialmente l’esito delle decisioni,
  • Non comporta un rischio significativo di danno.

Le linee guida della Commissione Europea, attese entro febbraio 2026, chiariranno con esempi pratici quali sistemi SSL potranno beneficiare di queste deroghe.

Indicazioni operative

Come orientarsi nell’uso dell’IA

  1. Valutare il rischio: analizzare se il sistema IA influisce direttamente sulle decisioni o introduce nuovi rischi.
  2. Preservare l’autonomia umana: garantire che l’output dell’IA sia sempre soggetto a valutazione critica da parte di un operatore.
  3. Documentare tutto: mantenere tracciabilità, trasparenza e supervisione dei sistemi IA utilizzati.
  4. Coinvolgere i lavoratori: informare e formare il personale sull’uso dell’IA e sui loro diritti.
  5. Monitorare l’evoluzione normativa: seguire le linee guida UE e gli aggiornamenti legislativi.
  6. Collaborare con sviluppatori e fornitori: assicurarsi che i sistemi siano progettati secondo principi etici e di sicurezza.
  7. Integrare l’IA nei DVR: includere l’analisi dei rischi legati all’IA nei documenti di valutazione dei rischi aziendali.