La sottoscrizione dell’Accordo 5 novembre 2025, mediante il quale Confcommercio-Imprese per l’Italia e Manageritalia hanno provveduto al rinnovo del Ccnl per i dirigenti delle aziende del terziario, della distribuzione e dei servizi, ha portato in luce il tema dell’intelligenza artificiale (IA), ritenuto un fattore decisivo del processo di trasformazione digitale dell’impresa.
Riconoscendo che «la forza del Terziario risiede nella capacità delle imprese e dei dirigenti di affrontare i processi di trasformazione economica, tecnologica e sociale, contribuendo alla competitività del sistema produttivo e al benessere collettivo», le Parti hanno avvertito la necessità d’istituire un Osservatorio permanente perché sia valutata l’eventualità di apportare modificazioni alla vigente declaratoria, «includendo nuove professionalità strategiche con elevate competenze e responsabilità, anche al fine di garantire diritti, trasparenza e strumenti ai dirigenti che operano in contesti trasformati o in trasformazione derivanti da processi innovativi, con particolare riferimento allo sviluppo di sistemi di intelligenza artificiale».
Al riguardo, il combinato disposto di cui agli articoli 26 e 14 del Regolamento 2024/1689 del 13 giugno 2024 («AI Act») definisce il perimetro entro il quale un siffatto osservatorio potrebbe svolgere un esercizio interpretativo d’interesse.
L’articolo 26, paragrafo 2, del Regolamento impone al deployer-datore di lavoro di affidare la sorveglianza umana (human oversight) del funzionamento del sistema di IA ad alto rischio in uso ad una persona che disponga di adeguate competenze e formazione e alla quale sia attribuita l’autorità e riconosciuto il sostegno, anche finanziario, necessari perché detta attività possa essere condotta efficacemente per l’intero periodo in cui il sistema è in uso.
Per una più precisa connotazione degli anzidetti requisiti soccorre l’articolo 14, paragrafo 2, ai sensi del quale la sorveglianza umana mira a «prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile». Il deployer-datore di lavoro è pertanto tenuto a porre in essere misure tecniche e organizzative che, «commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio» (articolo 14, paragrafo 4), garantiscano l’esercizio della sorveglianza umana:
- comprendendo correttamente capacità e limiti del sistema;
- verificando il corretto funzionamento del sistema ed intercettando e affrontando possibili anomalie, disfunzioni e prestazioni inattese;
- interpretando in modo corretto l’output del sistema mediante strumenti e criteri d’interpretazione che potrebbero essere indicati e proposti anche dal fornitore del sistema stesso.
Alla luce di quanto sopra è evidente che in ragione del grado di autonomia del sistema di IA, del contesto in cui esso è impiegato nonché dell’entità dei rischi rilevati il deployer-datore di lavoro può optare per l’istituzione di un “organismo di sorveglianza” i) monocratico o ii) collegiale, disciplinandone opportunamente le funzioni.
Il citato articolo 14, paragrafo 4, offre ulteriori elementi sulla cui base esperire un primo tentativo di qualificazione dell’attività svolta da coloro ai quali sia affidata la sorveglianza umana. Tale disposizione prevede infatti che la persona fisica a cui è affidata tale funzione può, quando ritenuto opportuno e proporzionato:
- «decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output del sistema di IA ad alto rischio»;
e
- «intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di “arresto” o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza».
Composto con rapidi tratti il quadro normativo definito dal Regolamento, pare evidente come ricorrano i presupposti per affermare che, quando non costituente attività di lavoro autonomo per volontà delle parti, il lavoratore a cui sia affidata la sorveglianza umana del sistema di IA appartenga alla categoria di “dirigente” in ragione del grado di autonomia (necessaria) e della manifesta rilevanza che le decisioni da questi assunte potrebbero riflettere sia sul piano organizzativo, produttivo e, quindi, economico.
E ancora, tale possibile approdo induce ad un’immediata considerazione: stando al disposto di cui agli articoli 2, comma 1, lettera d) e 18 del Dlgs 81/2008, il lavoratore subordinato componente l’organismo di sorveglianza sarebbe al contempo, foss’anche di fatto (articolo 299 del Dlgs 81/2008), un dirigente per la sicurezza? Se si ammettesse che il componente dell’organismo di sorveglianza è un dirigente per la sicurezza, il modello di organizzazione e di gestione dovrebbe essere opportunamente modificato (articolo 30 del Dlgs 81/2008).
Salvo un prossimo intervento del legislatore comunitario, che pare apporterà modificazioni anche all’ambito temporale d’applicazione del più sopra richiamato Regolamento (“Digital Omnibus on AI Regulation”), le disposizioni attualmente vigenti in materia di sorveglianza umana di un sistema di IA troveranno effettiva applicazione a far tempo dal 2 agosto 2026; è dunque opportuno, anche in considerazione dell’inderogabilità delle norme prevenzionistiche, che il tema delle modalità di svolgimento della sorveglianza umana e la qualificazione del rapporto di lavoro delle persone fisiche a cui essa è affidata siano sin d’ora presi in esame, valutando ovviamente anche i riflessi di natura organizzativa ed economica.
Cit. “Il Sole 24 Ore”



