UE verso approvazione legge su intelligenza artificiale: regole diverse per livelli di rischio. Sarà la prima al mondo in questo settore

UE verso approvazione legge su intelligenza artificiale: regole diverse per livelli di rischio. Sarà la prima al mondo in questo settore

UE verso approvazione legge su intelligenza artificiale: regole diverse per livelli di rischio. Sarà la prima al mondo in questo settore
Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell'IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati.

Come parte della sua strategia digitale, l’UE intende regolamentare l’intelligenza artificiale (IA) al fine di garantire garantire migliori condizioni per lo sviluppo e l’uso di questa innovativa tecnologia.

Ne dà conto una nota del Parlamento Europeo che sottolinea come l’IA possa portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile ma possa anche essere origine di rischi per un suo cattivo uso.

Nell’aprile 2021, la Commissione UE ha proposto il primo quadro normativo dell’UE sull’IA. La norma propone che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull’IA.

Quali sono gli obiettivi della normativa sull’IA del Parlamento
La priorità per il Parlamento è quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose.

Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l’IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.

La legge sull’intelligenza artificiale: regole diverse per diversi livelli di rischio
Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell’IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati.

Rischio inaccettabile
I sistemi di intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone.

Questi comprendono:

  • manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
  • classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali
  • sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

Alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale.

Alto rischio
I sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

1) I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell’UE:

  • identificazione e categorizzazione biometrica di persone naturali
  • gestione e funzionamento di infrastrutture critiche
  • istruzione e formazione professionale
  • occupazione, gestione dei lavoratori e accesso all’autoimpiego
  • accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi • forze dell’ordine
  • gestione delle migrazioni, asilo e controllo delle frontiere
  • assistenza nell’interpretazione e applicazione legale della legge.

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

AI generativa
L’IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza:

• rivelare che il contenuto è stato generato da un’intelligenza artificiale

• progettare il modello in modo da impedire la generazione di contenuti illegali

• pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.

Rischio limitato
I sistemi di intelligenza artificiale a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’IA. Questo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).

Prossime tappe
Il Parlamento definirà la propria posizione negoziale durante la sessione plenaria di giugno 2023, dopodiché inizieranno i negoziati con i Paesi dell’UE in Consiglio per la stesura finale della legge.

L’obiettivo, conclude la nota del Parlamento UE, è quello di raggiungere un accordo entro la fine di quest’anno.

13 Giugno 2023

© Riproduzione riservata

L’Unione Europea lancia il suo primo Piano anti-crisi sanitarie
L’Unione Europea lancia il suo primo Piano anti-crisi sanitarie

Dopo la lezione bruciante della pandemia di COVID-19, l'Unione Europea si dota di una cassetta degli attrezzi condivisa per affrontare le prossime crisi sanitarie. Il Piano, presentato oggi, non è...

Crioconservazione ovociti. Raddoppiata in 10 anni la domanda. Ministero della Salute: “Fenomeno da disciplinare”
Crioconservazione ovociti. Raddoppiata in 10 anni la domanda. Ministero della Salute: “Fenomeno da disciplinare”

Il “social freezing”, la crioconservazione degli ovociti per ragioni non mediche, è un fenomeno in netta crescita in Italia, seppur in un vuoto normativo che il Governo si impegna a...

Rsa. Per la “lungoassistenza” il Ssn paga il 50% delle rette. Pd: “Famiglie allo stremo”
Rsa. Per la “lungoassistenza” il Ssn paga il 50% delle rette. Pd: “Famiglie allo stremo”

Un fondo da 100 milioni di euro annui a partire dal 2026 per l’assistenza ai malati di Alzheimer e altre demenze senili, e assunzioni in deroga ai vincoli di spesa...

Dai vaccini ai test aumentano i servizi in farmacia e meno burocrazia per i pazienti cronici. Ok dalla Camera, il Ddl Semplificazioni diventa legge
Dai vaccini ai test aumentano i servizi in farmacia e meno burocrazia per i pazienti cronici. Ok dalla Camera, il Ddl Semplificazioni diventa legge

Con il via libera definitivo della Camera, il Ddl Semplificazioni diventa legge e porta con sé un pacchetto di novità che promette di cambiare concretamente la quotidianità di pazienti, medici...