biometria_intelligenza_artificiale

AI Act: il Consiglio UE approva le nuove regole sull’Intelligenza artificiale

2004 0

Oggi, 21 maggio 2024, il Consiglio dell’Unione europea ha dato il via libera definitivo all’AI-ACT Regolamento sull’intelligenza artificiale, il primo quadro giuridico globale che stabilisce norme per lo sviluppo, l’immissione sul mercato e l’utilizzo dell’intelligenza artificiale.

Il Regolamento mira a garantire che l’intelligenza artificiale sia sviluppata e utilizzata in modo sicuro, responsabile ed etico, in linea con i valori dell’Unione europea. Stabilisce quattro categorie di rischio per i sistemi di intelligenza artificiale, a seconda del loro potenziale impatto sui cittadini. I sistemi di intelligenza artificiale ad alto rischio, come quelli utilizzati nei settori medico o dei trasporti, saranno soggetti a requisiti più rigorosi.

Il Regolamento entrerà in vigore 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale dell’Unione europea. I fornitori di sistemi di intelligenza artificiale avranno un periodo di tempo per adeguarsi ai nuovi requisiti.
Leggi il testo dell’AI-Act in italiano approvato dal Parlamento Europeo il 13 marzo 2024

  • Vediamo di seguito quali obblighi prevede l’AI-Act, a quali soggetti si riferisce, quali sistemi di IA sono considerati vietati o limitati e quali consentiti nel rispetto del diritto dell’Unione

AI-Act: gli obblighi per fornitori e utenti di intelligenza artificiale

Il Regolamento introduce inoltre una serie di obblighi per i fornitori e gli utenti di sistemi di intelligenza artificiale, tra cui:

  • Obbligo di trasparenza: i fornitori di sistemi di intelligenza artificiale dovranno fornire informazioni chiare e comprensibili sui loro sistemi, comprese le loro capacità, limitazioni e potenziali rischi.
  • Obbligo di valutazione della conformità: i fornitori di sistemi di intelligenza artificiale ad alto rischio dovranno far valutare i propri sistemi da organismi di valutazione indipendenti conformi ai requisiti stabiliti nel Regolamento.
  • Obbligo di vigilanza del mercato: le autorità nazionali dovranno sorvegliare il mercato per garantire che i sistemi di intelligenza artificiale siano conformi al Regolamento e adottare le necessarie misure di esecuzione.

AI-Act: punti chiave del Regolamento europeo

  • Divieto dei sistemi di intelligenza artificiale che causano danni alla persona o che violano i diritti fondamentali.
  • Obbligo per i fornitori di sistemi di intelligenza artificiale di adottare misure per garantire la sicurezza e la protezione dei dati.
  • Introduzione di un sistema di “marchiatura CE” per i sistemi di intelligenza artificiale conformi al Regolamento.
  • Creazione di un gruppo di esperti in materia di intelligenza artificiale per consulenza la Commissione europea.

Regole per l’intelligenza artificiale dell’AI-Act: chi riguarda?

Le regole dell’Ai-act, quando approvate, riguarderanno da vicino i fornitori di modelli di base delle applicazioni e sistemi di intelligenza artificiale: questi dovranno valutare e mitigare i possibili rischi e registrare i loro modelli nella banca dati dell’UE prima della loro immissione sul mercato europeo

Si fa riferimento, in particolare, ai sistemi di IA generativa che si basano su tali modelli, ad esempio, ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento.

AI ACT: le pratiche di intelligenza artificiale vietate

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l’IA può generare.

Vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone:

  • Sistemi di punteggio sociale (che riescono  a classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali).
  • l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave;
  • i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
  • i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
  • i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; e
  • l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
  • Sistemi e applicativi per influenzare gli elettori nelle elezioni
  • IA ad alto rischio

Nei sistemi ad altro rischio rientrano:

  • gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.),
  • alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni).

Intelligenza artificiale: approccio al rischio e divieti dell’AI Act

L’Ai-Act pone l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

Identificazione biometrica e uso da parte delle forze dell’ordine

Il divieto di queste pratiche avrà delle “eccezioni” nel caso siano sfruttate dalle forze dell’ordine nella loro normale attività.

Sebbene le forze dell’ordine non possano fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge, sarà possibile una identificazione “in tempo reale” con garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa

Sarà possibile usare l’identificazione nella ricerca di una persona scomparsa o per la prevenzione di un attacco terroristico. Occorrerà però sempre l’autorizzazione giudiziaria collegata ad un reato.

Sistemi di IA generali: obblighi di trasparenza

Il regolamento europeo sull’Intelligenza artificiale prevede che i sistemi di IA per finalità generali dovranno comunque rispettare i requisiti di trasparenza e le norme UE sul diritto d’autore durante “le fasi di addestramento” dei vari modelli.

I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.

Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.

Ai-Act, fra esenzioni e obblighi di informazione

Per stimolare l’innovazione nel campo dell’IA e sostenere le PMI, i deputati hanno previsto esenzioni per le attività di ricerca e le componenti dell’IA fornite con licenze open-source. La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’IA prima che venga implementata.

Nel testo compare anche il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio con un impatto significativo sui loro diritti fondamentali.

Riformato anche il ruolo dell’Ufficio dell’UE per l’IA, che avrà il compito di monitorare l’attuazione delle norme sull’IA.

Articoli e approfondimenti sull’Intelligenza artificiale

Intelligenza artificiale e sicurezza in azienda

Per investigare i risvolti di salute e sicurezza sul lavoro delle applicazioni dell’intelligenza artificiale, suggeriamo i seguenti contenuti con alcuni studi e applicazioni pratiche

Coordinamento editoriale Portale InSic.it – Formatore in salute e sicurezza sul lavoro – Content editor e Social media manager InSic.it

Antonio Mazzuca

Coordinamento editoriale Portale InSic.it - Formatore in salute e sicurezza sul lavoro - Content editor e Social media manager InSic.it