L’intelligenza artificiale promette meno carico e più creatività, ma nelle organizzazioni sta aumentando la densità del lavoro, riducendo il tempo di concentrazione e alimentando nuovi rischi psicosociali. Per RSPP, HSE e HR è fondamentale integrare l’AI nei processi con criteri di sicurezza, prevenzione e sostenibilità operativa, evitando che l’efficienza artificiale diventi fonte di sovraccarico umano.

Cosa tratta :

Per anni ci siamo sentiti ripetere che l’intelligenza artificiale avrebbe alleggerito i carichi, ridotto la burocrazia, restituito tempo e respiro alla creatività. Una prospettiva affascinante: meno compiti ripetitivi, più qualità nella vita lavorativa. Eppure, mentre gli strumenti digitali si moltiplicano, qualcosa si è incrinato. La tecnologia che avrebbe dovuto semplificare la giornata sembra invece averla resa più densa, rapida e frammentata. Una recente analisi internazionale su oltre centomila lavoratori, osservati nella loro attività digitale quotidiana, ha messo in evidenza un fenomeno inatteso: dopo l’introduzione di strumenti di AI, le persone lavorano più velocemente… e molto di più. Le comunicazioni interne esplodono, il tempo passato tra email e messaggi raddoppia e l’uso di software gestionali vola. L’efficienza promessa dall’AI non svanisce: semplicemente, viene immediatamente “riempita” con altre richieste, altri compiti, altre micro-attività. Un incremento di velocità che non dà tempo di respirare: la capacità di concentrazione continua – quella che ci permette di svolgere davvero attività ad alto valore, con attenzione e lucidità – si riduce sensibilmente. A guadagnarci è la quantità, non la qualità. A perderci è il benessere. Molti lavoratori raccontano una sensazione nuova ma diffusa: non è la mole di lavoro a essere cresciuta, è la densità, il ritmo impossibile da sostenere.

Se posso fare una cosa in metà tempo, allora me ne affideranno due”, è il ragionamento che sembra governare molti contesti operativi.

E questo è un problema serio per RSPP, HSE manager e HR, perché una condizione del genere ha effetti diretti su sicurezza, lucidità decisionale, capacità di analisi del rischio e prevenzione degli errori. L'iperproduttività spinta diventa un rischio emergente, non solo di natura psicosociale, ma potenzialmente anche operativa.

La pressione invisibile dell’iper-efficienza

Uno dei meccanismi più insidiosi è proprio la sensazione di “facilità apparente”: se l’AI rende più semplice generare documenti, organizzare attività, analizzare dati, allora il cervello umano tende a mettersi in marcia con più compiti, più iniziative, più stimoli. Il risultato è un ciclo continuo di accelerazione, in cui l’AI non toglie lavoro, lo moltiplica.

Siamo entrati nella stagione del “lavoro senza pause”: un tempo di iperconnessione dove ciò che prima richiedeva ore ora richiede minuti, e per questo si tende a fare tutto nello stesso tempo, con un surplus di aspettative da parte dei vertici e una pressione autoimposta da parte dei singoli.

Per chi si occupa di sicurezza, gli effetti sono immediati:

  • calo dell’attenzione,
  • saturazione cognitiva,
  • rischi di valutazioni affrettate,
  • scarsa percezione del pericolo reale,
  • errori nelle procedure,
  • incidenti dovuti alla fretta.

E tutto ciò avviene mentre le normative europee continuano a riconoscere ufficialmente lo stress lavoro-correlato e i rischi psicosociali come una priorità, ricordando alle organizzazioni che sicurezza significa anche tutela mentale, non solo fisica.

RSPP, HSE e HR: i nuovi custodi dell’equilibrio tra AI e benessere

Le tecnologie digitali non sono nemici da combattere, anzi: sono ormai parte strutturale del lavoro e possono migliorare processi, ridurre errori, rendere la sicurezza più intelligente e proattiva. Ma come ogni trasformazione, vanno governate con attenzione. Se lasciate a sé stesse rischiano di trasformarsi in acceleratori incontrollati. È necessario accompagnare il cambiamento con nuove regole culturali e organizzative, che ristabiliscano un equilibrio tra efficienza e sostenibilità.La chiave è integrare l’AI dentro processi chiari e digitalizzati, non sopra processi già caotici. La tecnologia deve essere un supporto, non un moltiplicatore di pressioni.Questo significa lavorare su:

  • una progettazione del lavoro che preveda margini reali di recupero;
  • una cultura aziendale che non premi solo la velocità, ma la qualità e la sicurezza;
  • strumenti digitali che traccino non solo quanto si produce, ma come si produce;
  • sistemi che segnalino automaticamente sovraccarichi, picchi anomali, interruzioni eccessive;
  • formazione che aiuti a gestire l’AI come un alleato, non come una fonte di ansia.
  • KPI che colleghi la produttività a infortuni, incidenti, near miss, eventi sentinella ed in generale a situazioni di SLC.

È una sfida culturale prima ancora che tecnica: evitare che l’“efficienza artificiale” diventi “inefficienza umana” e che i nuovi motori che dovevano portare massima funzionalità non diventino nuovi strumenti e più importanti di tecnostress, come sembra apparire dai nuovi studi.

COSA DICE LA LEGGE

La normativa italiana ed europea riconosce da anni i rischi psicosociali come parte integrante della salute e sicurezza nei luoghi di lavoro.

  • La Direttiva Quadro 89/391/CEE impone ai datori di lavoro di adottare ogni misura utile a tutelare la salute fisica e mentale dei lavoratori.
  • Il D.Lgs. 81/2008 richiede esplicitamente la valutazione dello stress lavoro-correlato, includendo i carichi cognitivi, la pressione temporale e l'organizzazione delle attività.
  • Le più recenti linee guida europee sul “benessere digitale” invitano le aziende a monitorare l’impatto della tecnologia sui ritmi e sugli equilibri lavorativi, prevedendo sistemi di prevenzione e procedure adeguate.

Questi riferimenti obbligano a considerare l’introduzione dell’AI come un possibile fattore di rischio se modifica intensità, modalità e densità del lavoro. Significa includerla nella valutazione, nei piani di prevenzione e nella formazione. 

INDICAZIONI OPERATIVE (per RSPP, HSE Manager e HR)

  1. Mappare come l’AI modifica flussi, ritmi ed esposizione a compiti ripetitivi o cognitivamente pesanti, integrandoli nel DVR.
  2. Utilizzare strumenti digitali per monitorare tempo di concentrazione, frequenza delle interruzioni e picchi di attività, identificando segnali precoci di sovraccarico.
  3. Definire linee guida interne sull’uso degli strumenti di AI: tempi, modalità, limiti, responsabilità.
  4. Progettare processi più lineari e digitalizzati, riducendo il numero di passaggi manuali che aumentano la densità operativa.
  5. Formare i lavoratori all’uso consapevole dell’AI, con focus su: gestione del tempo, prevenzione dell’iperattività indotta, uso sicuro dei dati.
  6. Inserire gli effetti della digitalizzazione nei programmi di sorveglianza sanitaria e nei questionari sul rischio stress.

 Il 20% che conta (per l’80% dei risultati)

  1. L’AI accelera il lavoro più di quanto lo riduca: il rischio è la saturazione cognitiva.
  2. La sicurezza ne risente subito: attenzione, lucidità e qualità decisionale calano, mentre SLC aumenta.
  3. Serve una governance chiara della tecnologia, non solo strumenti.
  4. La digitalizzazione, se ben progettata, diventa alleata della prevenzione e del benessere.
  5. Senza un presidio HSE-HR, l’AI amplifica pressioni invece che ridurle.