Intelligenza artificiale e disabilità: opportunità e rischi nel mondo del lavoro

Intelligenza artificiale e disabilità: opportunità e rischi nel mondo del lavoro

Intelligenza artificiale e disabilità: opportunità e rischi nel mondo del lavoro
L'IA può essere un'opportunità o una barriera per i lavoratori con disabilità. Da un lato, migliora l'accessibilità con tecnologie assistive; dall'altro, rischia di discriminare nei processi di selezione. L'OIL sottolinea l'urgenza di sviluppare un'IA inclusiva, coinvolgendo direttamente le persone con disabilità per prevenire pregiudizi

Per i lavoratori con disabilità occorre promuovere un’intelligenza artificiale responsabile e inclusiva che migliori l’accessibilità, prevenendo al contempo pregiudizi e discriminazioni sul posto di lavoro e salvaguardando la salute mentale e fisica..

Lo ha precisato in un recentissimo approfondimento l’Organizzazione Internazionale del Lavoro sottolineando che, mentre l’uso dell’IA da parte di persone con disabilità, ad esempio la sintesi vocale o i sottotitoli in tempo reale, tende ad essere positivo, l’uso istituzionale di tecnologie per le risorse umane basate sull’IA, ad esempio filtrando le persone con volti o schemi di linguaggio “non standard”, tende a svantaggiare ed escludere chi cerca lavoro e i lavoratori con disabilità.

Per contribuire alla creazione di mercati del lavoro equi ed efficienti, gli sviluppatori di IA e gli acquirenti di strumenti di impiego basati sull’IA devono affrontare la discriminazione basata sulla disabilità e il suo impatto sul bacino di talenti, sulla forza lavoro e sui clienti di un’organizzazione. La regolamentazione relativa all’IA deve colmare l’attuale divario di uguaglianza in materia di disabilità e garantire che gli strumenti di IA siano applicati in modo non discriminatorio prima di raggiungere i consumatori, inclusi sia i dipartimenti delle risorse umane dei datori di lavoro sia i consumatori con disabilità.

L’intelligenza artificiale sta portando le tecnologie assistive a un nuovo livello migliorando funzionalità e personalizzazione. Ad esempio, per le persone con disabilità uditive, linguistiche o visive, strumenti basati sull’intelligenza artificiale come i sottotitoli in tempo reale, la conversione da voce a testo e l’interpretazione del linguaggio dei segni possono collegare canali di comunicazione altrimenti inaccessibili.

Per le persone con disabilità cognitive, l’intelligenza artificiale generativa può fungere da sistema di supporto cruciale, riassumendo informazioni complesse e suddividendo compiti complessi in passaggi più piccoli e gestibili per facilitare l’organizzazione e la gestione del tempo.

L’intelligenza artificiale ha anche il potenziale per mitigare i pregiudizi umani inconsci nelle assunzioni. Addestrando i sistemi a concentrarsi esclusivamente su competenze e qualifiche, le aziende potrebbero ridurre le predisposizioni umane legate alla disabilità durante il processo di selezione iniziale. Alcuni strumenti di intelligenza artificiale possono rendere anonime le informazioni sui candidati, contribuendo a garantire che le valutazioni si basino esclusivamente su criteri correlati al lavoro. Le aziende che utilizzano strumenti progettati intenzionalmente e sapientemente per promuovere un’intelligenza artificiale inclusiva e non discriminatoria nelle assunzioni possono anche ottenere un vantaggio competitivo accedendo a un bacino di talenti più ampio.

L’intelligenza artificiale presenta, però, rischi significativi se implementata senza una supervisione rigorosa. L’intelligenza artificiale può perpetuare pregiudizi storici e creare nuove forme di esclusione, con gravi conseguenze legali ed etiche.

È probabile che i sistemi di intelligenza artificiale addestrati su dati storici di assunzione imparino a replicare e amplificare i modelli esistenti di esclusione e trattamento ingiusto. A causa degli elevati tassi di disoccupazione per le persone con disabilità, è probabile che i set di dati relativi all’occupazione utilizzati dall’intelligenza artificiale sottorappresentino le persone con disabilità.

L’intelligenza artificiale potrebbe apprendere che questa è una tendenza “auspicabile”, rafforzando un pregiudizio contro i candidati con disabilità. Inoltre, l’intelligenza artificiale può introdurre nuove forme di discriminazione basate sulla disabilità.

Uno studio recente ha rilevato che gli strumenti di screening dei curriculum basati sull’intelligenza artificiale classificavano i CV con riconoscimenti relativi alla disabilità in una posizione inferiore rispetto a curriculum identici privi di tali informazioni. Allo stesso modo, gli strumenti video basati sull’intelligenza artificiale che misurano segnali non verbali come il contatto visivo e la cadenza vocale possono discriminare i candidati con disabilità, comprese le persone con paralisi facciale, perdita dell’udito o individui neurodivergenti, interpretando erroneamente questi comportamenti come segni di disimpegno o incapacità.

Le normative sull’intelligenza artificiale, come l’EU AI Act, hanno iniziato a richiedere standard di accessibilità per i sistemi di intelligenza artificiale “ad alto rischio”. L’EU AI Act riconosce il rischio di discriminazione nei confronti delle persone con disabilità e sottolinea i rischi derivanti dall’utilizzo dell’intelligenza artificiale nei processi di reclutamento e nel monitoraggio delle prestazioni.

Nell’ambito del monitoraggio delle prestazioni, i sistemi di tracciamento basati sull’intelligenza artificiale possono aderire a orari rigidi, il che svantaggia i dipendenti che necessitano di flessibilità o adattamenti, anche a causa della loro disabilità.

L’ILO Global Business and Disability Network sta lavorando per cambiare l’approccio legale, etico e culturale delle aziende all’uso dell’IA per il reclutamento e l’impiego di persone con disabilità. Le principali raccomandazioni includono:

– Dare priorità alla progettazione e allo sviluppo etici e non discriminatori: gli sviluppatori di intelligenza artificiale dovrebbero coinvolgere attivamente persone con diverse disabilità, le loro organizzazioni rappresentative e gli esperti di accessibilità nell’intero ciclo di vita di progettazione, sviluppo e test dell’intelligenza artificiale. Ciò contribuirebbe a garantire che gli strumenti siano intrinsecamente imparziali, accessibili e valutino accuratamente il potenziale dei candidati.

– Implementare un’implementazione e una governance responsabili: l’IA dovrebbe integrare, non sostituire, il processo decisionale umano. I datori di lavoro dovrebbero garantire una supervisione e una revisione umane significative di tutte le decisioni in materia di assunzione generate dall’IA, comprese quelle che riguardano persone con disabilità. Dovrebbe essere stabilita una chiara responsabilità per le prestazioni del sistema di IA e per qualsiasi risultato discriminatorio che possa derivarne.

– Promuovere una cultura inclusiva: le aziende dovrebbero integrare considerazioni etiche sull’intelligenza artificiale nelle loro strategie più ampie di inclusione della disabilità. Ciò include la formazione di professionisti e manager delle risorse umane sull’uso etico dell’intelligenza artificiale, promuovendo al contempo l’alfabetizzazione digitale per i dipendenti con disabilità.

– Rafforzare le leggi e le politiche pubbliche relative all’intelligenza artificiale: le normative relative all’intelligenza artificiale devono rispondere ai pregiudizi e alle barriere esistenti quando i sistemi di intelligenza artificiale vengono utilizzati per valutare le persone con disabilità, anche in fase di reclutamento e impiego. Accessibilità e inclusività dovrebbero essere fondamentali nello sviluppo di questi strumenti di intelligenza artificiale, in modo che i datori di lavoro, in qualità di acquirenti di tali strumenti, non corrano il rischio di discriminazioni basate sulla disabilità.

Domenico Della Porta
Disability Manager Università degli Studi di Salerno

Domenico Della Porta

17 Ottobre 2025

© Riproduzione riservata

Case della Comunità: stop al medico che lavora da solo. Agenas pubblica le linee d’indirizzo sulle équipe multidisciplinari. Dalla leadership condivisa al monitoraggio degli esiti. Ecco le novità
Case della Comunità: stop al medico che lavora da solo. Agenas pubblica le linee d’indirizzo sulle équipe multidisciplinari. Dalla leadership condivisa al monitoraggio degli esiti. Ecco le novità

Non più professionisti che intervengono uno dopo l’altro, ma competenze che lavorano insieme, in parallelo, attorno alla persona. È questa l’idea di fondo della bozza di linee di indirizzo tecniche...

Comparto Sanità. Al via le trattative Aran-Sindacati per il rinnovo del contratto 2025-2027. Ecco le novità dell’Atto d’indirizzo
Comparto Sanità. Al via le trattative Aran-Sindacati per il rinnovo del contratto 2025-2027. Ecco le novità dell’Atto d’indirizzo

Si è aperto oggi, nella sede dell’Aran, il tavolo negoziale con i sindacati rappresentativi per il rinnovo del Contratto collettivo nazionale di lavoro del comparto Sanità per il triennio 2025-2027,...

Telemedicina in farmacia. Federfarma: “Superato il milione di prestazioni”. Nel 2025 +28% per Ecg, Holter cardiaco e pressorio
Telemedicina in farmacia. Federfarma: “Superato il milione di prestazioni”. Nel 2025 +28% per Ecg, Holter cardiaco e pressorio

La telemedicina si conferma una delle attività in maggiore espansione nella farmacia dei servizi, che consolida il proprio ruolo di presidio sanitario di prossimità. Grazie alla capillarità sul territorio, le...

Professioni sanitarie. La Fno Tsrm e Pstrp inaugura la nuova sede a Palazzo Balestra: “Più vicini ai luoghi delle decisioni”
Professioni sanitarie. La Fno Tsrm e Pstrp inaugura la nuova sede a Palazzo Balestra: “Più vicini ai luoghi delle decisioni”

Uno spazio istituzionale pensato come luogo di confronto tra salute, cultura e società, destinato a ospitare eventi, incontri e iniziative rivolte al pubblico. La Federazione nazionale degli Ordini delle professioni...