Con il D.M. 17 dicembre 2025, n.180, il Ministero del Lavoro ha adottato delle linee guida per l’uso consapevole dell’intelligenza artificiale nel mondo del lavoro, ponendo l’attenzione anche alla tutela della sicurezza dei lavoratori.

Cosa tratta:

Le applicazioni di intelligenza artificiale rappresentano una grande opportunità per le organizzazioni, permettendo un efficientamento dei processi e semplificando alcune attività, talvolta a minor valore aggiunto.

Nel campo della sicurezza sul lavoro, l’IA può supportare su diversi aspetti:

  • la valutazione dei rischi;
  • la gestione delle emergenze;
  • il rispetto degli adempimenti normativi;
  • la gestione degli appaltatori;
  • individuazione delle misure di prevenzione e protezione.

Fra le possibilità illustrate dal documento, anche l’utilizzo di strumenti digitali per la sorveglianza, al fine di ridurre la probabilità di infortuni.

Tuttavia, l’utilizzo di queste tecnologie, l’automazione e la digitalizzazione dei processi possono comportare alcuni rischi per i lavoratori.

I rischi dell’intelligenza artificiale

Come viene sottolineato anche dal documento, l’utilizzo profuso di strumenti digitali e IA può comportare:

  • aumento dello stress;
  • percezione di ridotta autonomia e possibilità di prendere decisioni;
  • ansia dovuta al monitoraggio digitale;
  • ridotta comunicazione e isolamento;
  • dequalificazione, difficoltà ad adattarsi ai nuovi strumenti.

Linee guida del Ministero

Il documento riporta alcuni principi generali per l’adozione sicura e responsabile dell’IA:

  • Trasparenza e chiarezza: ogni sistema IA deve essere comprensibile e tracciabile, i lavoratori devono sapere quando e come viene utilizzata l’IA nei processi decisionali.
  • Supervisione umana obbligatoria: decisioni che incidono su assunzioni, valutazioni, premi o licenziamenti non possono essere affidate esclusivamente agli algoritmi.
  • Responsabilità chiare: individuare chi è responsabile lungo la filiera (progettisti, fornitori, utilizzatori).
  • Equità e non discriminazione: prevenire bias algoritmici nei processi di selezione, valutazione e gestione del personale.
  • Formazione e inclusione: è necessario ridurre il divario digitale e riqualificare le competenze.
  • Tutela della sicurezza dei lavoratori: questo aspetto non deve mai essere trascurato nell’implementazione di nuove tecnologie, che non devono inficiare la salute mentale dei lavoratori.

Il documento propone anche una classificazione dei rischi, per valutare i livelli di accettabilità, basata sull’AI Act.

Conclusioni

Le Linee guida del Ministero del Lavoro appena emanate riprendono alcuni concetti dell’AI Act della Commissione Europea, promuovendo l’uso della tecnologia per lo sviluppo anche delle imprese individuali, ma portando l’attenzione ai rischi possibilmente connessi. Per sfruttare al massimo i benefici dell’IA, è necessario impostare un sistema che prevenga anzitutto le condizioni di stress, partendo dall’informazione e dalla formazione delle persone.

INDICAZIONI OPERATIVE

  1. Valutazione e classificazione dei rischi: valutare l’impatto dell’introduzione delle nuove tecnologie.
  2. Formazione: su IA, diritti digitali e sicurezza per tutti i lavoratori, anche per diffondere le competenze in materia.
  3. Definizione di procedure integrate: la gestione di questi strumenti deve essere integrata nei sistemi di gestioni, per garantire il raggiungimento degli obiettivi di miglioramento della produttività e della sicurezza.
  4. Audit etici e verifiche periodiche: monitorare discriminazioni, impatti sociali e condizioni di stress.
  5. Canali di segnalazione sicuri: per denunciare usi impropri o rischiosi dell’IA (whistleblowing).
  6. Revisione periodica delle policy: adattamento costante alle evoluzioni tecnologiche e normative.

In allegato il testo del D.M. 17 dicembre 2025, n.180.

 

Per approfondire:

Intelligenza Artificiale e Sicurezza sul Lavoro: Opportunità, Rischi e Responsabilità

Intelligenza Artificiale e Sicurezza sul Lavoro: tra Innovazione e Regole