Stretta di mano tra un braccio robotico e una mano umana a simboleggiare la governance dell'IA e la cooperazione sostenibile tra tecnologia e lavoratori.

Intelligenza umana e artificiale: una co-abitazione sostenibile? Sfide e ruolo HSE

178 0

L’IA generativa e la gestione algoritmica trasformano il lavoro, introducendo nuovi rischi psicologici ed etici. Tra opacità degli algoritmi e debito cognitivo, la sfida per i professionisti HSE è garantire una governance che tuteli salute e autonomia. Questo contributo analizza come integrare l’innovazione e la sicurezza per una collaborazione sostenibile tra umano e artificiale.

IA e nuove forme di lavoro: il quadro delineato da EU-OSHA

Le ricerche EU-OSHA (Agenzia europea per la sicurezza e la salute sul lavoro) riportano un nuovo orizzonte occupazionale caratterizzato da forme di organizzazione e modalità di lavoro correlate all’industria 4.0[1], all’interconnessione tra oggetti e persone mediante reti di comunicazione, all’intelligenza artificiale (IA) e ai sistemi basati su cloud, alla robotica collaborativa (cobot), alla produzione additiva, ai sistemi cyber-fisici, come nel caso delle “fabbriche intelligenti” e delle “piattaforme online”, in cui uomini, macchine e prodotti comunicano tra loro attraverso mezzi fisici e virtuali.

In questo quadro, il contributo – potenziale – dei Professionisti HSE e Consulenti, è quello di assistere le imprese a trovare risposte efficaci che aiutino a garantire il migliore equilibrio possibile tra le variabili in campo, anche al fine di promuovere la prevenzione attraverso la riduzione dei rischi emergenti o gli effetti dannosi correlati alla co-abitazione umana e artificiale.

Digitalizzazione e sicurezza: perché emergono nuovi rischi

La crescita continua della digitalizzazione e dell’intelligenza artificiale, solleva ovviamente una serie di questioni critiche, che non possiamo eludere.
Da quando la società adotta sempre più rapidamente queste tecnologie, abbiamo la responsabilità crescente di interrogarci non solo sui benefici, ma anche sui potenziali rischi etici e sociali che questa trasformazione comporta.

Come già argomentato, la gestione algoritmica sta cambiando il nostro modo di lavorare e le recenti ricerche hanno evidenziato le ricadute in termini di sicurezza, autonomia e salute mentale.
Nel presente contributo intendo porre in evidenza alcune criticità che attengono alla psicologia del lavoro e riguardano da vicino l’umano nella sua interazione con l’IA generativa.

Quali sono i rischi dell’IA?

Opacità algoritmica

Una prima criticità concerne il tema dei bias e della cosiddetta opacità algoritmica[2]. Il cuore dell’IA, e del Machine Learning in particolare, risiede nell’addestramento dei modelli, un processo che imita l’apprendimento umano per fare previsioni o prendere decisioni basate su dati. I sistemi di intelligenza artificiale vengono addestrati su insieme di dati (dataset) che inevitabilmente riflettono i pregiudizi storici, culturali e sociali della realtà da cui sono tratti. Ad esempio, quando utilizziamo l’intelligenza artificiale per supportare il nostro pensiero e il nostro ragionamento per decisioni rilevanti, sia per la gestione del capitale umano, sia nell’ambito della educazione o della salute e sicurezza, in tutti questi processi decisionali corriamo il rischio di riprodurre le discriminazioni legate magari al genere, alle classi sociali, all’orientamento sessuale, che sono intrinsecamente “cablate” per così dire nell’algoritmo stesso.

Scarso controllo

A complicare ulteriormente la situazione, si aggiunge anche quella che è tuttora la scarsa trasparenza dei processi decisionali. Infatti spesso non siamo in grado di ricostruire come l’algoritmo sia giunto ad una determinata conclusione e quindi, questo ci porta al tema del controllo, ovvero come possiamo esercitare un controllo critico sui risultati prodotti da sistemi che non comprendiamo completamente?
In quale misura possiamo garantire che le decisioni siano verificabili, eque e responsabili?
Questi interrogativi diventano attualmente più urgenti e più decisivi quando l’intelligenza artificiale viene applicata in ambiti altamente sensibili dal punto di vista sociale come la giustizia, la sanità, l’istruzione, la sicurezza dei lavoratori.

Dipendenza cognitiva

Un gruppo di ricercatori del Massachusetts Institute of Technology (MIT) ha recentemente pubblicato una ricerca dal titolo “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”, evidenziando un secondo rischio, definito come debito cognitivo[3].
Ne parliamo già tanto per quanto riguarda social media e dispositivi mobili, ma certamente l’uso continuativo dell’intelligenza artificiale (per risolvere problemi, sintetizzare contenuti o prendere decisioni), può favorire una forma di dipendenza cognitiva-mentale. Ad esempio, con l’utilizzazione alla guida del GPS, più ci affidiamo al sistema meno siamo in grado di orientarci autonomamente, tuttavia, mentre la perdita di orientamento spaziale può essere ricompensata, la riduzione di capacità critiche e/o creativo decisionali potrebbe invece compromettere in modo più decisivo la nostra autonomia cognitiva a lungo termine.

Quindi il rischio non è solo quello di una perdita funzionale, ma anche quello di una progressiva demotivazione verso l’esercizio del pensiero nelle sue forme più alte:

  • pensiero attivo,
  • pensiero riflessivo,
  • pensiero critico.

Poiché, infatti, se la risposta è sempre immediata ed accessibile, che incentivo abbiamo ad elaborare, a valutare e approfondire?
Ulteriori ricerche parlano di “cognitive offloading”, cioè la tendenza a delegare processi mentali complessi alla tecnologia. Pertanto rischiamo una forma di inerzia mentale, di pigrizia cognitiva assistita, che può naturalmente indebolire le nostre risorse interiori, quelle che sono essenziali non solo per la nostra auto realizzazione, ma anche per il funzionamento responsabile di una società libera e democratica.

Autenticità

Un terzo problema riguarda l’autenticità, nello specifico l’autenticità cognitiva e creativa[4]. Quando le nostre idee, i nostri contenuti, i testi di soluzioni sono co-generate mediante sistemi intelligenti, diventa difficile stabilire dove finisca il nostro contributo e dove cominci quello della macchina, e ciò pone questioni rilevanti sia sul piano della soggettività, sia sul piano personale, in quanto si riduce anche la possibilità di trovare il proprio stile di scrittura o di espressione originale.
Quindi, corriamo il rischio che l’adozione (pervasiva) di questi strumenti porti ad una forma di decadimento e di standardizzazione del pensiero che – purtroppo – impattano sulla logica discorsiva. È indubbiamente un rischio da considerare, perché il risultato è una possibile riduzione della diversità socio-cognitiva individuale, che rappresenta invece una risorsa cruciale per l’innovazione e anche per la resilienza culturale.

A questo si aggiungono anche interrogativi complessi in materia di responsabilità e proprietà intellettuale che, attenendo alla sfera giuridico legale, non verranno trattati in questo contributo.

Il contesto attuale: perché non è solo una sfida tecnologica

Quella che ci troviamo oggi ad affrontare non è una semplice evoluzione tecnologica, ma una sfida etica e sociale, un passaggio che ci obbliga a rivedere le nostre competenze ed i nostri concetti fondamentali di mente, di agency, di decision making e di creatività alla luce di un ambiente cognitivo che non è più esclusivamente di dominio umano[5].

L’IA sta rivoluzionando le “esperienze” di life long learning, in quanto mentre la capacità umana di apprendere si è sviluppata nel corso di millenni, le capacità dell’intelligenza artificiale hanno fatto passi da gigante in pochi anni, fino ad interrogarci a un livello più profondo: ora ci invita a ripensare il significato stesso del pensare, del decidere, dell’agire in un mondo dove vive. Consapevoli che questa co-abitazione umana-artificiale sarà sempre più costante, ciò richiederà una nuova forma di progettualità condivisa, per imparare a disegnare tecnologie cognitive ibride, ovvero degli ambienti in cui l’AI non sostituisce ma (potenzialmente) supporta le capacità umane nel rispetto della nostra complessità emotiva, della dimensione etica e della natura umana delle nostre relazioni.
Quindi, il vero traguardo sarà rendere l’intelligenza artificiale cognitivamente sostenibile, costruendo un mutuo ambiente tra umano e artificiale in cui uomo e macchina possano collaborare al servizio del benessere individuale e collettivo[6].

Governance dell’intelligenza artificiale: le strategie possibili

Le sfide sono complesse e richiedono una governance strategica a livello di Stati membri, enti di ricerca, amministrazioni pubbliche e private, ma a differenza di altre innovazioni tecnologiche – come è stato con l’avvento e lo sviluppo dei droni -, ora l’interazione con l’IA e l’impatto conseguente ci coinvolge in prima persona e ha già influenzato le nostre abitudini, le scelte di consumo ed i comportamenti quotidiani.

Il legislatore si sta già occupando di tali confini, sia nel supportare la definizione di una strategia di utilizzo dell’intelligenza artificiale in ambito lavorativo, sia nel monitorare l’impatto sul mercato del lavoro e nell’identificazione delle imprese maggiormente interessate a soluzioni IA all’avanguardia. In parte lo stanno facendo e, considerato che nei decenni passati gli enti normativi e gli organismi regolatori sono stati più lenti dello sviluppo tecnologico, credo che oggi abbiano maggiore consapevolezza circa la portata di questo fenomeno e quale potrebbe essere nel prossimo futuro il suo ulteriore impatto.

II dibattito in corso: tra velocità dell’innovazione e adattamento umano

Ascoltando le testimonianze di chi ha lavorato nelle imprese della Silicon Valley ed ha vissuto dall’interno come funzionano questi grandi promotori di innovazione tecnologica, il rischio è sempre quello di considerare la rapidità e la velocità come un valore fine a sé stesso, piuttosto che invece soffermarsi e comprendere, fino in fondo, che in realtà la velocità non può essere un valore, soprattutto per com’è strutturato oggi l’essere umano.
Secondo altri punti di vista, abbiamo bisogno anche di lentezza e un po’ di tempo per comprendere ed adeguarci rispetto alle innovazioni – che sono troppo più grandi di noi – e di conseguenza le istituzioni maggiormente rappresentative a livello globale dovranno investire in questa direzione. 

Sicuramente siamo di fronte ad interrogativi che non ammettono risposte, né semplici, né definitive, però rappresentano il nucleo di un dibattito pubblico e istituzionale che non è più rimandabile, e con questo contributo mi unisco all’appello di quanti auspicano la costituzione di un Framework europeo orientato ad incrementare la consapevolezza sui meccanismi che sottostanno alla IA ed al loro impatto sui processi logico-cognitivi a tutte le età.

Il ruolo dei professionisti HSE: mediatori tra tecnologia, etica e benessere

Gli attori della safety&security, adesso e nel prossimo futuro, si troveranno di fronte scenari nuovi in cui strumenti potenti, come tutte le tecnologie emergenti, richiederanno cornici di senso solide, e non basterà solo conoscerle, ma servirà capire come collocarle all’interno di modelli e di protocolli adeguati.
In questo contesto, il nostro ruolo professionale rischierà di indebolirsi nella misura in cui non saremo in grado di formarci in modo adeguato, ma potrà invece rafforzarsi se riusciremo ad evolverci accompagnando – con competenza e responsabilità – questa trasformazione.
Tutti noi vorremmo che fosse un cammino già disegnato, ma di certo è una traiettoria che dipende dalle scelte che stiamo facendo adesso, e questo richiede onestà intellettuale, lucidità e senso civico.

Per saperne di più sull’IA nel mondo del lavoro

Arricchisci le tue conoscenze su Intelligenza Artificiale sul lavoro con i volumi di EPC Editore e i corsi di formazione dell’Istituto Informa:


[1] Martinelli M. (2024) Mercato del lavoro, rischi emergenti e fabbisogno formativo, In «Il Tecnico della prevenzione», G. Rossi (a cura di), Edizioni PVI, 433-437.

[2] Ristuccia Tufarelli & Partners (2024) AI ACT e GDPR, tra opacità algoritmica e principio di trasparenza .

[3] RaiNews.it (2025) ChatGPT fa male al cervello? Lo studio del MIT: “Si rischia un debito cognitivo” .

[4] Fasano (2025) AI generativa e verità: il tramonto del libero mercato delle idee .

[5] CIIP (2025) L’intelligenza Artificiale per la salute e sicurezza sul lavoro.

[6] Clark A. (2025) Extended minds with generative AI, Nature Communications, 16, 4627.

Logo Unpisi 2026

Segretario nazionale UNPISI Tecnici della Prevenzione nell’Ambiente e nei Luoghi di Lavoro – www.unpisi.it

Maurizio Martinelli

Segretario nazionale UNPISI Tecnici della Prevenzione nell’Ambiente e nei Luoghi di Lavoro - www.unpisi.it