Intelligenza artificiale e disabilità: opportunità e rischi nel mondo del lavoro

Intelligenza artificiale e disabilità: opportunità e rischi nel mondo del lavoro

Intelligenza artificiale e disabilità: opportunità e rischi nel mondo del lavoro
L'IA può essere un'opportunità o una barriera per i lavoratori con disabilità. Da un lato, migliora l'accessibilità con tecnologie assistive; dall'altro, rischia di discriminare nei processi di selezione. L'OIL sottolinea l'urgenza di sviluppare un'IA inclusiva, coinvolgendo direttamente le persone con disabilità per prevenire pregiudizi

Per i lavoratori con disabilità occorre promuovere un’intelligenza artificiale responsabile e inclusiva che migliori l’accessibilità, prevenendo al contempo pregiudizi e discriminazioni sul posto di lavoro e salvaguardando la salute mentale e fisica..

Lo ha precisato in un recentissimo approfondimento l’Organizzazione Internazionale del Lavoro sottolineando che, mentre l’uso dell’IA da parte di persone con disabilità, ad esempio la sintesi vocale o i sottotitoli in tempo reale, tende ad essere positivo, l’uso istituzionale di tecnologie per le risorse umane basate sull’IA, ad esempio filtrando le persone con volti o schemi di linguaggio “non standard”, tende a svantaggiare ed escludere chi cerca lavoro e i lavoratori con disabilità.

Per contribuire alla creazione di mercati del lavoro equi ed efficienti, gli sviluppatori di IA e gli acquirenti di strumenti di impiego basati sull’IA devono affrontare la discriminazione basata sulla disabilità e il suo impatto sul bacino di talenti, sulla forza lavoro e sui clienti di un’organizzazione. La regolamentazione relativa all’IA deve colmare l’attuale divario di uguaglianza in materia di disabilità e garantire che gli strumenti di IA siano applicati in modo non discriminatorio prima di raggiungere i consumatori, inclusi sia i dipartimenti delle risorse umane dei datori di lavoro sia i consumatori con disabilità.

L’intelligenza artificiale sta portando le tecnologie assistive a un nuovo livello migliorando funzionalità e personalizzazione. Ad esempio, per le persone con disabilità uditive, linguistiche o visive, strumenti basati sull’intelligenza artificiale come i sottotitoli in tempo reale, la conversione da voce a testo e l’interpretazione del linguaggio dei segni possono collegare canali di comunicazione altrimenti inaccessibili.

Per le persone con disabilità cognitive, l’intelligenza artificiale generativa può fungere da sistema di supporto cruciale, riassumendo informazioni complesse e suddividendo compiti complessi in passaggi più piccoli e gestibili per facilitare l’organizzazione e la gestione del tempo.

L’intelligenza artificiale ha anche il potenziale per mitigare i pregiudizi umani inconsci nelle assunzioni. Addestrando i sistemi a concentrarsi esclusivamente su competenze e qualifiche, le aziende potrebbero ridurre le predisposizioni umane legate alla disabilità durante il processo di selezione iniziale. Alcuni strumenti di intelligenza artificiale possono rendere anonime le informazioni sui candidati, contribuendo a garantire che le valutazioni si basino esclusivamente su criteri correlati al lavoro. Le aziende che utilizzano strumenti progettati intenzionalmente e sapientemente per promuovere un’intelligenza artificiale inclusiva e non discriminatoria nelle assunzioni possono anche ottenere un vantaggio competitivo accedendo a un bacino di talenti più ampio.

L’intelligenza artificiale presenta, però, rischi significativi se implementata senza una supervisione rigorosa. L’intelligenza artificiale può perpetuare pregiudizi storici e creare nuove forme di esclusione, con gravi conseguenze legali ed etiche.

È probabile che i sistemi di intelligenza artificiale addestrati su dati storici di assunzione imparino a replicare e amplificare i modelli esistenti di esclusione e trattamento ingiusto. A causa degli elevati tassi di disoccupazione per le persone con disabilità, è probabile che i set di dati relativi all’occupazione utilizzati dall’intelligenza artificiale sottorappresentino le persone con disabilità.

L’intelligenza artificiale potrebbe apprendere che questa è una tendenza “auspicabile”, rafforzando un pregiudizio contro i candidati con disabilità. Inoltre, l’intelligenza artificiale può introdurre nuove forme di discriminazione basate sulla disabilità.

Uno studio recente ha rilevato che gli strumenti di screening dei curriculum basati sull’intelligenza artificiale classificavano i CV con riconoscimenti relativi alla disabilità in una posizione inferiore rispetto a curriculum identici privi di tali informazioni. Allo stesso modo, gli strumenti video basati sull’intelligenza artificiale che misurano segnali non verbali come il contatto visivo e la cadenza vocale possono discriminare i candidati con disabilità, comprese le persone con paralisi facciale, perdita dell’udito o individui neurodivergenti, interpretando erroneamente questi comportamenti come segni di disimpegno o incapacità.

Le normative sull’intelligenza artificiale, come l’EU AI Act, hanno iniziato a richiedere standard di accessibilità per i sistemi di intelligenza artificiale “ad alto rischio”. L’EU AI Act riconosce il rischio di discriminazione nei confronti delle persone con disabilità e sottolinea i rischi derivanti dall’utilizzo dell’intelligenza artificiale nei processi di reclutamento e nel monitoraggio delle prestazioni.

Nell’ambito del monitoraggio delle prestazioni, i sistemi di tracciamento basati sull’intelligenza artificiale possono aderire a orari rigidi, il che svantaggia i dipendenti che necessitano di flessibilità o adattamenti, anche a causa della loro disabilità.

L’ILO Global Business and Disability Network sta lavorando per cambiare l’approccio legale, etico e culturale delle aziende all’uso dell’IA per il reclutamento e l’impiego di persone con disabilità. Le principali raccomandazioni includono:

– Dare priorità alla progettazione e allo sviluppo etici e non discriminatori: gli sviluppatori di intelligenza artificiale dovrebbero coinvolgere attivamente persone con diverse disabilità, le loro organizzazioni rappresentative e gli esperti di accessibilità nell’intero ciclo di vita di progettazione, sviluppo e test dell’intelligenza artificiale. Ciò contribuirebbe a garantire che gli strumenti siano intrinsecamente imparziali, accessibili e valutino accuratamente il potenziale dei candidati.

– Implementare un’implementazione e una governance responsabili: l’IA dovrebbe integrare, non sostituire, il processo decisionale umano. I datori di lavoro dovrebbero garantire una supervisione e una revisione umane significative di tutte le decisioni in materia di assunzione generate dall’IA, comprese quelle che riguardano persone con disabilità. Dovrebbe essere stabilita una chiara responsabilità per le prestazioni del sistema di IA e per qualsiasi risultato discriminatorio che possa derivarne.

– Promuovere una cultura inclusiva: le aziende dovrebbero integrare considerazioni etiche sull’intelligenza artificiale nelle loro strategie più ampie di inclusione della disabilità. Ciò include la formazione di professionisti e manager delle risorse umane sull’uso etico dell’intelligenza artificiale, promuovendo al contempo l’alfabetizzazione digitale per i dipendenti con disabilità.

– Rafforzare le leggi e le politiche pubbliche relative all’intelligenza artificiale: le normative relative all’intelligenza artificiale devono rispondere ai pregiudizi e alle barriere esistenti quando i sistemi di intelligenza artificiale vengono utilizzati per valutare le persone con disabilità, anche in fase di reclutamento e impiego. Accessibilità e inclusività dovrebbero essere fondamentali nello sviluppo di questi strumenti di intelligenza artificiale, in modo che i datori di lavoro, in qualità di acquirenti di tali strumenti, non corrano il rischio di discriminazioni basate sulla disabilità.

Domenico Della Porta
Disability Manager Università degli Studi di Salerno

Domenico Della Porta

17 Ottobre 2025

© Riproduzione riservata

Nove italiani su dieci hanno fiducia nella scienza. L’indagine Fnomceo con Istituto Piepoli: l’80% si fida del proprio medico di famiglia, il 62% del Ssn
Nove italiani su dieci hanno fiducia nella scienza. L’indagine Fnomceo con Istituto Piepoli: l’80% si fida del proprio medico di famiglia, il 62% del Ssn

Per nove italiani su dieci la scienza è motore del progresso e la stessa percentuale ha fiducia nella scienza medica. L’81% si fida del proprio medico di famiglia, l’87% pensa...

Medici di famiglia, Fimmg: “Case di Comunità siano adattate alle specificità di ogni territorio”
Medici di famiglia, Fimmg: “Case di Comunità siano adattate alle specificità di ogni territorio”

“Le Case di Comunità non possono essere un vestito a taglia unica: ciascun territorio ha esigenze e caratteristiche che richiedono interventi ad hoc”. È uno dei passaggi sottolineati dal segretario...

Straordinari infermieristici. Fials: “Governo conferma l’imposta sostitutiva al 5% anche per la pronta disponibilità”
Straordinari infermieristici. Fials: “Governo conferma l’imposta sostitutiva al 5% anche per la pronta disponibilità”

FIALS esprime piena soddisfazione per la risposta ufficiale della Presidenza del Consiglio dei Ministri alla richiesta di chiarimenti avanzata dall’Agenzia delle Entrate: l’imposta sostitutiva del 5%, prevista dalla legge n....

Direttori sanitari presentano 5 misure concrete per rafforzare il loro ruolo strategico
Direttori sanitari presentano 5 misure concrete per rafforzare il loro ruolo strategico

Cinque le misure concrete, volte a rafforzare e valorizzare il ruolo strategico del direttore sanitario che opera nelle aziende ospedaliere e sanitarie italiane, risultato di un percorso avviato un anno...