Human Resource HUB è un progetto

In collaborazione con

AI Act e HR: la compliance diventa competenza

L’AI Act sposta l’HR al centro della qualità decisionale: mappatura dei rischi, supervisione umana e AI literacy trasformano la compliance in leva manageriale.

Ascolta l’Audio dell’Articolo

Ascolta il Mini Podcast dell’articolo

Compliance che innova il people management

Per chi guida le persone, l’AI Act non è un tema da delegare a IT o Legal, ma un’architettura che tocca il cuore della qualità delle decisioni organizzative. In ambito HR, l’intelligenza artificiale incide su accesso al lavoro, valutazioni, percorsi di crescita, organizzazione delle attività, performance e permanenza in azienda: aree in cui ogni scelta pesa su diritti, aspettative, reputazione e fiducia.
È per questo che il Regolamento (UE) 2024/1689 guarda alla funzione HR come a un terreno sensibile. La domanda non è più se uno strumento “fa risparmiare tempo”, ma se migliora davvero il processo decisionale, se è governabile e se l’organizzazione saprà spiegarne l’uso con credibilità. Occorre anche correggere una sottovalutazione diffusa: la norma procede per fasi e alcune previsioni sono già attive. La funzione HR deve passare dall’osservazione alla costruzione della governance, a partire da due fronti immediati: l’AI literacy (art. 4) e i divieti dell’art. 5. La mappatura degli usi è il punto d’avvio della compliance, non il traguardo: in base all’Allegato III, molti impieghi dell’AI in occupazione e gestione dei lavoratori possono ricadere nel perimetro dei sistemi ad alto rischio, non solo nel recruiting in senso stretto ma anche in decisioni su assunzione, promozione, assegnazione di compiti, monitoraggio e valutazioni di performance o comportamento.
Evitare semplificazioni opposte è cruciale. Non ogni software “intelligente” in HR è automaticamente high-risk, perché esistono usi accessori e procedurali che non influenzano l’esito della decisione. Allo stesso modo, chiamare un tool “assistant” o “copilot” non lo colloca fuori dal rischio elevato: conta l’effetto sostanziale sul processo decisionale. Un applicativo che normalizza formati di CV resta amministrativo; uno che assegna punteggi di adeguatezza, ordina candidati o suggerisce shortlist merita invece una lettura stringente.

Supervisione umana, divieti e responsabilità del deployer

Uno dei fraintendimenti più diffusi è quello dell’“ultima parola umana”. L’AI Act, specie guardando agli obblighi del deployer (art. 26), richiede supervisione umana effettiva: competenza, formazione, autorità e reale capacità di comprendere e contestare gli output. Non basta un clic di approvazione, serve giudizio professionale. Altrimenti si alimenta la deresponsabilizzazione manageriale, indebolendo sia la difendibilità giuridica sia la qualità della leadership, con effetti diretti su recruiting, performance management e allocazione della forza lavoro. Va poi considerato il divieto di inferenza delle emozioni nei luoghi di lavoro (art. 5), salvo eccezioni ristrette. In un mercato che propone strumenti per “misurare engagement” o “rilevare stress” da segnali vocali, facciali o comportamentali, la funzione HR deve esercitare una valutazione critica su affidabilità scientifica, trasparenza metodologica e finalità organizzativa, evitando scorciatoie che espongono a contenziosi e danni reputazionali. La responsabilità operativa del deployer sposta il baricentro dall’adempimento documentale al disegno dei processi. Tra gli snodi da presidiare rientrano:

  • Uso conforme alle istruzioni del fornitore e definizione chiara dei casi d’uso.
  • Supervisione umana adeguata, con ruoli, competenze e poteri ben delineati.
  • Qualità dei dati di input quando nella disponibilità del deployer, evitando bias operativi.
  • Monitoraggio continuo del funzionamento, gestione dei log e reazione a malfunzionamenti e rischi.
  • Informazione ai lavoratori e ai loro rappresentanti, in determinati casi, prima dell’introduzione di sistemi high-risk sul luogo di lavoro.

La domanda, dunque, non è “abbiamo l’informativa?”, ma “il processo regge quando il sistema sbaglia, viene contestato o produce risultati inattesi?”. Qui l’HR è decisiva: definisce chi decide, con quali evidenze, con quali margini di discrezionalità, come e quando attivare escalation e revisioni. La trasparenza è l’elemento che sorregge l’intero impianto. L’AI Act introduce obblighi informativi e, con l’art. 86, un diritto alla spiegazione per persone impattate da decisioni basate su output di sistemi high-risk. In pratica, candidati o dipendenti non accetteranno risposte generiche: servirà chiarire cosa fa il sistema, a quale scopo viene usato, che peso ha nella decisione, chi lo supervisiona e quali possibilità esistono per revisione o contestazione.

AI literacy e valutazione integrata dell’impatto

L’AI literacy (art. 4) è già richiesta e non può ridursi a un corso una tantum. Per diventare leva competitiva, deve tradursi in capacità organizzativa: comprensione funzionale degli strumenti, lettura di limiti e bias, competenza decisionale per evitare automatismi, consapevolezza giuridica e relazionale su trasparenza, non discriminazione e contestabilità. Sul fronte delle verifiche, è utile distinguere tra strumenti di impatto: il FRIA dell’art. 27 ha un perimetro specifico e non coincide con un obbligo generalizzato per tutte le imprese private; ciò non esonera dal costruire una valutazione integrata che tenga insieme privacy (incluse eventuali DPIA ai sensi del GDPR), profilo giuslavoristico, antidiscriminatorio, organizzativo e reputazionale. La maturità si misura nella capacità di comprendere il sistema, valutarne i rischi nel contesto d’uso, documentare scelte, definire controlli e responsabilità e rendere tutto intelligibile a chi è impattato. Guardando al business, il vero rischio non sono solo le sanzioni: lo è la cattiva progettazione. Un sistema che velocizza lo screening ma usa proxy poveri deteriora la qualità delle assunzioni; un algoritmo che promette oggettività ma resta opaco irrigidisce le relazioni; una dashboard che semplifica il monitoraggio, se non è spiegabile e supervisionata, può amplificare i conflitti. L’AI Act, letto con spirito pro-innovazione ed etico, è allora un’occasione per rafforzare il ruolo strategico dell’HR: presidiare le condizioni perché la tecnologia aumenti il giudizio umano, conciliando velocità e produttività con diritti e fiducia. Chi saprà farlo non otterrà solo compliance, ma un vantaggio organizzativo tangibile.

Condividi il contenuto
Facebook
Twitter
LinkedIn
WhatsApp
Email
Print
Ultime Insights