Intelligenza artificiale e lavoro: qual è l’impatto sulla sicurezza?

Focus sulla valutazione dei rischi legati all'intelligenza artificiale e all'automazione delle attività cognitive nei luoghi di lavoro.

intelligenza artificiale

L’Agenzia Europea per la Sicurezza e la Salute sul Lavoro ha elaborato un’analisi delle possibili conseguenze legate ai processi di automazione delle attività cognitive sui luoghi di lavoro.

In relazione alla sempre maggiore diffusione dell’intelligenza artificiale (IA e sulla base della classificazione presentata in una relazione su robotica avanzata, intelligenza artificiale e automazione delle attività, l’Agenzia europea per la sicurezza e la salute sul lavoro ( EU-OSHA) ha prodotto un report (“Cognitive automation: implications for occupational safety and health”) in cui si affronta lo stato della ricerca sugli effetti dell’automazione delle attività cognitive e l’impatto sul mondo del lavoro in termini di salute e sicurezza.

Riprendiamo dal documento un estratto della classificazione relativa ai sistemi basati sull’ intelligenza artificiale e la robotica avanzata per l’automazione dei compiti:

Oltre a questi report l’Agenzia europea ha prodotto anche una nota informativa che delinea i rischi e le opportunità che emergono in seguito all’adozione di sistemi basati sull’IA, soffermandosi sulle conseguenze per determinati ambiti lavorativi.

La nota informativa, dal titolo “Cognitive automation: impact, risks and opportunities for occupational safety and health” (Automazione delle attività cognitive: effetti, rischi e opportunità per la salute e la sicurezza sul lavoro) è a cura di Robert Donoghue e Prof. Dr. Phoebe Moore (University of Leicester, School of Business), Patricia Helen Rosen, Eva Heinold, Susanne Niehaus e Dr. Sascha Wischniewski (Federal Institute for Occupational Safety and Health – BAuA).

Leggi anche:

Protezione dati: tutte le iniziative europee

Gli attacchi informatici e la sicurezza sul lavoro

Cognitive automation: la trasformazione del lavoro e la dequalificazione

La nota informativa ricorda che la preoccupazione più ovvia, relativa alle conseguenze dell’automazione delle attività cognitive, è la minaccia della perdita di posti di lavoro.

Se è difficile calcolare quanti posti di lavoro potrebbero perdersi a causa di questa automazione, è indubbio che ormai un gran numero di lavoratori ritiene che il proprio lavoro potrebbe essere automatizzato nei prossimi anni. E questo pensiero è già di per sé un problema, dato che è stato confermato che esiste una forte relazione tra il senso di precarietà lavorativa e la salute mentale.

Se con l’introduzione di sistemi basati sull’intelligenza artificiale si elimineranno compiti e mansioni, si verificheranno poi molti casi di trasformazione del lavoro.

Si indica che la dequalificazione – ad esempio con riferimento alla condizione di chi pur in possesso di una qualificazione si trova costretto ad accettare e svolgere un lavoro non qualificato – è un grave rischio associato al cambiamento del contenuto delle mansioni.

E anche la soluzione proposta per il problema della dequalificazione, spesso definita “upskilling” o “reskilling“, presenta dei rischi per la SSL.

In primo luogo, non è chiaro se produca effettivamente i risultati ipotizzati (la nota riporta i risultati di alcune ricerche), in secondo luogo la pressione che deriva dalla necessità di aggiornare le competenze può diventare un onere che porta a un aumento dei livelli di stress. Tra l’altro alcuni ricercatori indicano che è difficile acquisire le competenze necessarie per implementare le innovazioni tecnologiche basate sull’ intelligenza artificiale e quindi i lavoratori potrebbero non sentirsi sicuri nell’interagire con queste tecnologie.

Cognitive automation: privacy, perdita di autonomia e disumanizzazione

Un’altra delle preoccupazioni legate alla diffusione di sistemi basati sull’IA nei luoghi di lavoro è relativa alla perdita di privacy.

Per il funzionamento dei sistemi basati sull’IA si indica che è necessaria un’ampia raccolta di dati. Pertanto, l’implementazione di tali sistemi comporta numerose e complesse questioni riguardanti il consenso, la selezione, la trasparenza, la rappresentazione e la responsabilità.

La mancata elaborazione e applicazione di idonee linee guida etiche per la raccolta e l’uso dei dati relativi all’automazione delle attività cognitive potrebbe comportare diffuse violazioni dei diritti.

Il documento si sofferma anche sulla sorveglianza che può avere conseguenze positive e negative. Ad esempio si segnala che nel settore dell’istruzione, il monitoraggio potrebbe permettere di avere utili feedback, di fare idonee personalizzazioni, di risparmiare tempo. Ma una maggiore sorveglianza apre anche la possibilità di raccogliere informazioni che potrebbero essere utilizzate per comminare sanzioni disciplinari più frequenti in caso di scarso rendimento.

La potenziale perdita di privacy è correlata poi alla perdita di autonomia. L’autonomia è considerata un elemento importante nel lavoro e, pertanto, incoraggiarne la conservazione e l’espansione dovrebbe essere un obiettivo.

A questo proposito, la diffusione di sistemi basati sull’ intelligenza artificiale nei luoghi di lavoro presenta complicazioni e sfide.

Alcuni ricercatori indicano che alcune applicazioni possono richiedere di lavorare secondo un protocollo molto rigido che lascia poco spazio alla creatività umana, al giudizio e al processo decisionale. E una scelta limitata nell’esecuzione dei compiti lavorativi verrebbe a minare l’autonomia del lavoratore e di conseguenza anche il senso del lavoro stesso. Tra l’altro un’altra associazione negativa tra controllo e libertà sul posto di lavoro ha a che fare con il fenomeno dell’autocensura. Quando gli individui sono consapevoli di essere osservati, possono sentire un’innata pressione ad agire nel modo che ritengono più desiderabile agli occhi dell’osservatore. I

La letteratura esaminata per questo report, e per la nota informativa corrispondente, in particolare nei settori dell’assistenza e dell’istruzione, suggeriscono che l’adozione di sistemi basati sull’intelligenza artificiale potrebbe indurre un processo di spersonalizzazione. Ad esempio nell’ambito dell’assistenza potrebbe cambiare la relazione tra curante e paziente, trasformando quest’ultimo, attraverso l’osservazione con dispositivi tecnologici, sempre più in un oggetto.

Sebbene la letteratura tenda a concentrarsi sui potenziali benefici delle tecnologie basate sull’intelligenza artificiale per i pazienti, si può supporre che questa spersonalizzazione della relazione di cura possa diventare anche una forma di “alienazione” per il “caregiver”.

Un’altra preoccupazione è invece la disumanizzazione di un ambiente di lavoro sempre più automatizzato.

Con un numero sempre crescente di compiti che viene scaricato su sistemi informatici, sui robot e su altre forme di assistenza tecnologica, gli operatori sanitari si trovano ad avere a che fare con “dati” e dispositivi” più che interagire con esseri umani.

Come affrontare l’impatto dei sistemi basati sull’intelligenza artificiale

In definitiva, come mostrato dalla nota informativa e dal report, l’impatto umano dei sistemi basati sull’intelligenza artificiale è principalmente a livello psicosociale e organizzativo.

Per evitare le conseguenze mostrate qualsiasi sistema basato sull’IA che raccolga dati dovrebbe rispettare le più recenti normative in materia di etica, privacy e protezione dei dati. Inoltre le aziende che implementano sistemi basati sull’IA dovrebbero concentrarsi sul consenso, la trasparenza, la partecipazione e la responsabilità nei confronti dei propri dipendenti per mantenere al minimo la perdita di privacy effettiva e percepita.

È poi necessario adottare misure attive contro la dequalificazione. Non perché, in caso di malfunzionamento o guasto della tecnologia, i lavoratori potrebbero dover svolgere il compito manualmente, ma anche per la comprensione del processo di lavoro come parte di un processo decisionale. In questo modo si contrasta la sensazione di completa dipendenza dal sistema basato sull’ intelligenza artificiale.

Infine – conclude la nota – quando i sistemi basati sull’IA vengono impiegati per compiti sociali – come ad esempio le attività di assistenza – non vanno ignorati i rischi di spersonalizzazione e di perdita dell’interazione sociale tra lavoratori e clienti, studenti o pazienti. In campo sociale è evidente che questa nuova tecnologia può sì automatizzare i compiti, ma non può sostituire i complessi livelli di interazione umana.

Rimandiamo, in conclusione, alla lettura integrale della nota informativa e del report corrispondente che riportano ulteriori dettagli su queste problematiche, sui rischi e le azioni che si possono mettere in campo per ridurli.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *