Il 17 dicembre 2025 il Ministro del Lavoro ha firmato il D.M. n. 180/2025, adottando le “Linee Guida per l’implementazione dell’IA nel mondo del lavoro”. Non si tratta di un documento prescrittivo, ma di un atto di orientamento che si candida a diventare il principale riferimento per chiunque — imprenditori, professionisti HR, consulenti del lavoro, avvocati giuslavoristi, sindacalisti — si trovi a gestire l’introduzione di sistemi di intelligenza artificiale in un contesto lavorativo. La sua natura non vincolante non deve però trarre in inganno: nella prassi dei contenziosi lavoristici, i giudici tendono a confrontare il comportamento delle parti con gli standard definiti da documenti di questo tipo, conferendo loro un peso para-normativo che va ben oltre la loro qualificazione formale. Ignorarlo, insomma, sarebbe un errore strategico.
Un documento che nasce da un obbligo di sistema
Le Linee Guida non nascono nel vuoto. Si inseriscono in un sistema normativo che, tra il 2024 e il 2025, ha subito una trasformazione profonda e per certi versi accelerata rispetto alle attese. L’AI Act europeo — il Regolamento (UE) 2024/1689, pienamente operativo dal 2 agosto 2026 per la maggior parte delle disposizioni — classifica i sistemi IA per livello di rischio e colloca il settore lavorativo tra quelli ad alto rischio per definizione: i sistemi usati per selezionare personale, valutarne le performance o gestirne l’organizzazione sono soggetti a obblighi stringenti di trasparenza, supervisione umana, gestione documentata del rischio e audit periodici. A questo si aggiungono il GDPR, che all’art. 22 vieta le decisioni basate unicamente su processi automatizzati senza un presidio umano e che all’art. 25 impone la protezione dei dati fin dalla progettazione dei sistemi, e lo Statuto dei Lavoratori, il cui art. 4 subordina qualsiasi forma di controllo a distanza — categoria in cui possono rientrare molti sistemi IA di monitoraggio — all’accordo sindacale o all’autorizzazione dell’Ispettorato del Lavoro.
La Legge n. 132 del 23 settembre 2025, primo riferimento normativo nazionale organico sull’IA, in vigore dal 10 ottobre 2025, completa il quadro su due fronti principali. Da un lato designa le autorità di vigilanza italiane: l’Agenzia per la Cybersicurezza Nazionale (ACN) per le funzioni ispettive e sanzionatorie, l’Agenzia per l’Italia Digitale (AgID) per la promozione, la certificazione e il monitoraggio dei sistemi IA, con un ruolo residuale ma importante affidato al Garante per la protezione dei dati personali per tutto ciò che attiene al trattamento dei dati personali nei sistemi intelligenti. Dall’altro crea, all’art. 12, l’Osservatorio sull’adozione dei sistemi di intelligenza artificiale nel mondo del lavoro presso il MLPS, organismo interdisciplinare a cui il decreto affida il compito di aggiornare periodicamente le stesse Linee Guida. È questa, forse, la scelta istituzionale più lungimirante: riconoscere che in un settore che cambia con la velocità dell’IA, nessun documento può aspirare a essere definitivo, e costruire fin dall’inizio un meccanismo di revisione continua basato su dati, evidenze empiriche e confronto con gli stakeholder.
Il documento è inoltre frutto di un processo partecipativo che ne rafforza l’autorevolezza: la consultazione pubblica condotta dal 14 aprile al 21 maggio 2025 sulla piattaforma “ParteciPA” ha raccolto oltre 90 contributi da cittadini, istituzioni, associazioni di categoria e imprese, rendendo le Linee Guida il prodotto di un dialogo reale e non di una elaborazione puramente tecnocratica.
La roadmap: un percorso strutturato, non un adempimento
Il cuore operativo del documento è una roadmap in sei fasi per l’adozione responsabile dell’IA nelle imprese. Le prime quattro — valutazione della maturità digitale, pianificazione strategica e governance, sperimentazione con progetti pilota, implementazione su scala — si sviluppano in sequenza logica. Le ultime due, dedicate al monitoraggio continuo e alla valorizzazione del capitale umano, accompagnano trasversalmente l’intero percorso, configurando un sistema di compliance dinamica e mai definitivamente conclusa.
Ciò che rende questo modello interessante non è tanto la sequenza in sé, quanto le implicazioni giuridiche che ogni fase porta con sé. La valutazione preliminare, ad esempio, non è solo un esercizio di autovalutazione tecnologica: è anche il momento in cui l’impresa deve iniziare a classificare i propri sistemi IA secondo la tassonomia dell’AI Act, identificando quelli ad alto rischio e predisponendo la documentazione tecnica richiesta dall’Allegato IV del Regolamento. Questa attività richiede competenze multidisciplinari — legali, informatiche, organizzative — che nelle PMI spesso non sono disponibili internamente, e che la rete dei Digital Innovation Hub (DIH) promossi dal MIMIT può contribuire a supplire attraverso assessment gratuiti.
Nella fase di governance, le Linee Guida suggeriscono di designare un responsabile interno per l’IA, usando la denominazione di Chief AI Officer (CAIO), e arrivano ad ammettere che questo ruolo possa coincidere con il DPO. Si tratta di un’indicazione che merita cautela e riflessione. Il DPO è una figura che il GDPR vuole indipendente, priva di conflitti di interesse e non soggetta a istruzioni nell’esercizio delle proprie funzioni: caratteristiche difficilmente compatibili con il ruolo di coordinamento strategico dell’IA, che è per sua natura una funzione gestionale con responsabilità di indirizzo. La sovrapposizione va dunque valutata con attenzione caso per caso, tenendo presente che l’EDPB ha più volte chiarito che il DPO non può trovarsi nella posizione di controllare se stesso.
Sempre nella fase di governance, le Linee Guida introducono una novità rilevante sul piano delle tutele soggettive: i canali di segnalazione interni previsti dal D.Lgs. n. 24/2023 sul whistleblowing devono essere attrezzati per ricevere anche segnalazioni relative a usi impropri, rischiosi o non conformi dei sistemi IA. Il ragionamento giuridico sottostante è solido: chi segnala una violazione dell’AI Act che incide sui diritti dei lavoratori sta segnalando una potenziale violazione del diritto dell’Unione Europea, materia espressamente coperta dalle tutele per i segnalanti previste dalla Direttiva 2019/1937. Le imprese devono quindi verificare che i propri sistemi di whistleblowing siano non solo formalmente conformi al D.Lgs. n. 24/2023, ma anche sostanzialmente adeguati a gestire segnalazioni di natura tecnica e specialistica come quelle relative ai sistemi IA.
Lo stress da automazione: un rischio finalmente riconosciuto
Tra le novità concettuali più significative del documento c’è il riconoscimento esplicito dello “stress da automazione” come rischio psicosociale emergente. Le Linee Guida lo descrivono come una forma di disagio lavorativo che si manifesta attraverso ansia da prestazione, senso di inadeguatezza, timore di essere sostituiti dalle macchine e perdita di controllo sul proprio ruolo professionale. Sono fenomeni reali, ampiamente documentati dalla letteratura scientifica internazionale, che fino ad oggi faticavano a trovare un inquadramento giuridico esplicito nel diritto del lavoro italiano.
Le Linee Guida colmano questa lacuna inquadrando lo stress da automazione nell’ambito del D.Lgs. n. 81/2008 sulla salute e sicurezza nei luoghi di lavoro, e in particolare nell’art. 28, che impone la valutazione di tutti i rischi per la salute, compresi quelli di natura psicosociale. Chi introduce sistemi IA che modificano radicalmente tempi, modalità e contenuti del lavoro — e sono molti i sistemi capaci di farlo, dai software di monitoraggio della produttività ai sistemi di assegnazione algoritmica dei turni — dovrà aggiornare il proprio Documento di Valutazione dei Rischi per tenere conto di questi nuovi profili. La mancata valutazione espone a responsabilità civile ai sensi dell’art. 2087 del codice civile, che obbliga l’imprenditore a tutelare l’integrità fisica e la personalità morale dei prestatori di lavoro, con un’interpretazione giurisprudenziale da tempo orientata a ricomprendere anche i danni psichici e quelli derivanti dall’organizzazione del lavoro.
Le misure suggerite per contrastare il fenomeno — formazione continua, spazi di ascolto e confronto, coinvolgimento attivo dei lavoratori nei processi di innovazione, comunicazione trasparente sugli obiettivi e i limiti dell’IA — aprono uno spazio importante per la contrattazione collettiva, sia di livello nazionale che aziendale. I CCNL dei principali settori potrebbero e dovrebbero iniziare a disciplinare questi aspetti con clausole specifiche, seguendo l’esempio di alcuni sistemi europei — francese e tedesco in particolare — dove la governance dell’IA nei luoghi di lavoro è già oggetto di negoziazione strutturata tra le parti sociali.
Formazione e incentivi: le risorse ci sono, bisogna saperle usare
Un capitolo delle Linee Guida che merita attenzione pratica è quello dedicato ai finanziamenti disponibili per la transizione. Il Fondo Nuove Competenze, giunto alla terza edizione con una dotazione complessiva di oltre un miliardo di euro, finanzia percorsi di formazione su competenze digitali e IA coprendo fino al 100% della retribuzione nelle ore dedicate alla formazione in caso di rimodulazione oraria. I fondi interprofessionali — Fondimpresa, FonARCom, For.Te e gli altri — offrono strumenti flessibili per finanziare piani formativi aziendali, inclusi quelli dedicati all’alfabetizzazione digitale e alla gestione etica dei sistemi IA. Il Piano Transizione 5.0, attivo per il biennio 2024-2025, riconosce un credito d’imposta fino al 45% per investimenti in beni e software legati all’intelligenza artificiale, a condizione che generino un significativo risparmio energetico. Risorse concrete, insomma, che esistono e sono accessibili, ma che richiedono una progettazione consapevole per essere valorizzate appieno.
Cosa rimane aperto
Le Linee Guida lasciano irrisolti alcuni nodi importanti che le revisioni future dell’Osservatorio dovranno affrontare. Il tema sanzionatorio è sostanzialmente assente: non viene chiarito come si raccordino le sanzioni dell’AI Act — fino a 35 milioni di euro per le violazioni più gravi — con quelle del diritto del lavoro e del GDPR, producendo un quadro di esposizione al rischio che sarebbe utile mappare con maggiore precisione. La contrattazione collettiva è evocata ma non strutturata in obblighi specifici, lasciando alla negoziazione volontaria un ruolo che in altri ordinamenti europei è presidio normativo. E per le PMI, che pure sono le destinatarie dichiarate del documento, il percorso verso una governance adeguata dell’IA resta complesso, nonostante gli strumenti di supporto indicati.
Eppure, a dispetto di queste lacune — in parte inevitabili in una fase ancora pionerisistica della regolazione — il D.M. n. 180/2025 segna un punto di svolta reale. Per la prima volta l’Italia dispone di un quadro organico di orientamento sull’IA nel lavoro, costruito con metodo partecipativo, ancorato a un sistema normativo coerente e destinato ad evolversi nel tempo attraverso un meccanismo istituzionale dedicato. Il 2 agosto 2026 è vicino. Chi inizia oggi a costruire una governance dell’IA — mappando i sistemi in uso, formando il personale, aggiornando i documenti di compliance e aprendo un dialogo con le rappresentanze dei lavoratori — ha ancora il vantaggio del tempo. Chi aspetta che gli obblighi diventino pienamente sanzionabili per muoversi, avrà poco spazio per farlo con la necessaria attenzione.

