Human Resource HUB è un progetto

In collaborazione con

Legge 132/2025: cosa cambia per imprese e HR con l’intelligenza artificiale

La Legge 132/2025 spinge imprese e HR verso responsabilità, trasparenza e supervisione umana nell’uso dell’AI, con policy, formazione e controlli strutturati.

Ascolta l’Audio dell’Articolo

Ascolta il Mini Podcast dell’articolo

Un quadro che integra l’intelligenza artificiale nell’impresa

Con la Legge 132/2025, approvata il 23 settembre 2025, l’Italia introduce il primo quadro nazionale vincolante sull’intelligenza artificiale. Non si tratta dell’attuazione dell’AI Act europeo, già direttamente applicabile, ma di una norma complementare che richiama imprese e funzioni HR alla responsabilità, alla trasparenza e alla supervisione umana nell’uso dei sistemi di AI. Il baricentro è il principio antropocentrico: la tecnologia supporta, non sostituisce, il decisore umano, e la responsabilità non è delegabile a una macchina.
In quest’ottica, la legge ribadisce principi etici fondamentali, come la non discriminazione e il rispetto dei diritti della persona, con un’attenzione esplicita ai contesti lavorativi. È un segnale politico e operativo che, come evidenzia anche Ugo Di Stefano, senior partner di Lexellent, porta l’AI dentro la governance aziendale, spingendo il sistema produttivo a dotarsi di presìdi adeguati senza frenare l’innovazione.

HR al centro: responsabilità, trasparenza e competenze

Nella pratica quotidiana delle Risorse Umane l’AI è già diffusa, spesso integrata in software che operano su selezione, valutazione e gestione dei lavoratori. Questo rende imprescindibili consapevolezza e controllo: la funzione HR deve sapere quali strumenti incorporano algoritmi, come trattano i dati personali e quali automatismi attivano. Il tema si intreccia con gli obblighi informativi previsti dal Decreto Trasparenza (D.Lgs. 27 giugno 2022, n. 104) quando vengono impiegati sistemi decisionali o di monitoraggio automatizzati nei rapporti di lavoro.
Non è realistico pensare a imprese “senza AI”: accanto agli strumenti ufficiali, circolano anche soluzioni adottate spontaneamente dalle persone. Di qui l’esigenza, non delegabile, di una policy aziendale chiara e di una formazione continua che responsabilizzi i lavoratori su potenzialità e rischi, rafforzando al contempo trasparenza e supervisione umana.

Dalla policy ai controlli: la roadmap e i rischi legali

Per allineare innovazione e conformità serve un percorso strutturato, capace di coniugare opportunità e tutela etica. La traiettoria operativa per le HR può essere impostata così:

  • Condurre un assessment iniziale su uso, processi e rischi collegati all’AI, anche a livello collettivo.
  • Definire e diffondere una policy chiara sull’impiego dell’intelligenza artificiale.
  • Aggiornare la documentazione: Modelli 231, documenti contrattuali e precontrattuali HR, codice disciplinare e codice etico.
  • Avviare formazione specifica e continua per ruoli e processi.
  • Stabilire un processo di aggiornamento periodico delle regole in base all’evoluzione degli strumenti.

La mancanza di questi presìdi espone a rischi concreti. Senza cultura interna adeguata, possono finire nei sistemi di AI informazioni riservate o dati personali senza adeguate garanzie, con conseguenze su privacy e segreto aziendale. Inoltre, gli output dei sistemi possono poggiare su fonti non utilizzabili, contenere errori o linguaggi discriminatori. La selezione del personale è un’area critica: in casi reali, algoritmi hanno favorito profili sulla base di bias, valorizzando una definizione stereotipata di “nerd”, associata ad hobby come i manga. Senza regole e formazione, è più difficile imputare l’errore al singolo e la responsabilità rischia di diventare sistemica, con ricadute sul contenzioso.
Sul fronte dei controlli, l’Italia prevede più autorità competenti a seconda dei profili coinvolti: dal Garante per la protezione dei dati personali agli organi ispettivi in ambito lavoristico, fino all’autorità giudiziaria in caso di discriminazioni o ipotesi di reato. Nella pratica, oggi sono soprattutto le autorità già operative a intervenire; e quando l’uso dell’AI tocca dati personali o rapporto di lavoro, l’attenzione scatta automaticamente. Per le imprese, la migliore strategia resta una governance proattiva: politiche chiare, formazione e supervisione umana che abilitino un’adozione dell’AI etica, trasparente e competitiva.

Condividi il contenuto
Facebook
Twitter
LinkedIn
WhatsApp
Email
Print
Ultime Insights