Dopo l’emanazione dell’Ai-Act e a seguito degli sviluppi internazionali del dibattito sull’Intelligenza artificiale, arriva alla Camera il disegno di legge delega al Governo per adeguare la normativa interna alle novità introdotte dal Regolamento UE sull’intelligenza artificiale sulle quali si era già espresso anche il Garante Privacy.
Il testo che si compone di 28 articoli, ha già subito due letture fra Camera e Senato e dopo il sì di Montecitorio il 25 giugno scorso, passa ora a Palazzo Madama per la terza lettura.
Quali temi affronta il provvedimento e su quali aspetti impatterà?
Nell'articolo
AI-ACT cosa prevede la Legge di adeguamento italiana
La futura Legge di adeguamento al Regolamento europeo sull’intelligenza artificiale si compone di 6 capi e ribadisce l’approccio antropocentrico ribadito a Borgo Egnazia durante lo scorso G7, oltre alla necessità di vigilanza in merito ai rischi economici e sociali.
Il testo si concentra sulla ricerca, sperimentazione, sviluppo, adozione, applicazione e utilizzo di sistemi e di modelli di intelligenza artificiale “per finalità generali” e fissa i principi generali (art.3) che il Governo dovrà seguire nel decreto legislativo che seguirà
Si parla del rispetto dei diritti fondamentali, delle libertà e dei principi democratici nello svolgimento della vita istituzionale e politica. Inoltre si ribadisce che l’utilizzo di sistemi di IA non dovrà pregiudicare la libertà del dibattito democratico da interferenze illecite, da chiunque provocate, tutelando gli interessi della sovranità dello Stato nonché i diritti fondamentali di ogni cittadino riconosciuti in Italia ed in Europa.
Cos’è un “modello di IA per finalità generali”?
La futura Legge lo definisce come un “modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l’auto-supervisione su larga scala, che sia caratterizzato da una generalità significativa e sia in grado di svolgere con competenza un’ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA che sono utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato”
Italian AI-ACT e cybersicurezza
Escluse, per ora, dal campo di applicazione della futura Legge italiana sull’AI le attività inerenti la sicurezza nazionale, la cybersicurezza e la difesa (che verranno regolate in appositi decreti successivi). Tuttavia, l’articolo 18 attribuisce all’Agenzia per la cybersicurezza nazionale (ACN) il compito di promuovere e sviluppare ogni iniziativa finalizzata a valorizzare l’IA come risorsa per il rafforzamento della cybersicurezza nazionale.
Legge italiana sull’intelligenza artificiale – i principi e la Strategia nazionale
il Disegno di Legge al momento in discussione, definisce i settori (Capo II) sui quali impattano i modelli di intelligenza artificiale: il settore sanitario (i principi ispiratori sono all’art.7), la ricerca scientifica (art.9), la pubblica amministrazione (art.14), l’attività giudiziaria (si veda l’art.15 per poteri e limiti).
Affronta anche il tema della tutela del diritto d’autore (Capo IV) relativamente alle opere generate con l’ausilio dell’intelligenza artificiale, ma solo a condizione che la loro creazione derivi del lavoro intellettuale dell’autore. Viene consentito l’uso di IA per riprodurre o estrarre contenuti da fonti accessibili legittimamente, nel rispetto della normativa vigente.
La Legge definisce anche una Strategia nazionale (Capo III) da perseguire attraverso un’Authority di controllo e (art.5) del ruolo attivo dello Stato e delle autorità pubbliche nello stimolare l’utilizzo dell’IA stabilendo una serie di linee strategiche per migliorare l’interazione uomo-macchina, anche mediante l’applicazione della robotica, “per la promozione di un mercato dell’IA innovativo, equo, aperto e concorrenziale e di ecosistemi innovativi”.
La futura legge contiene, infine, le modifiche al codice penale per punire l’uso illecito dell’intelligenza artificiale.
Legge sull’Intelligenza artificiale – la tutela dei dati personali
Nella Legge ci sono poi diversi i richiami alla tutela della privacy.
All’articolo 4, la futura Legge individua i principi specifici concernenti la tutela delle informazioni e della riservatezza dei dati personali estendendo all’ambito dell’intelligenza artificiale i principi vigenti in materia di riservatezza dei dati personali e richiedendo
- un trattamento lecito, corretto e trasparente dei dati personali;
- la compatibilità con le finalità per le quali sono stati raccolti, in conformità con il diritto dell’Unione europea in materia di dati personali e di tutela della riservatezza.
- disposizioni sull’accesso dei minori alle tecnologie di intelligenza artificiale, con distinzione in base all’età, richiedendo il consenso genitoriale per i minori infra-quattordicenni.
L’articolo 8 riconosce l’interesse pubblico del trattamento dei dati, anche personali, per finalità di ricerca, nonché terapeutiche e farmacologiche, regolando l’uso secondario dei dati anonimi e semplificando le informative. Sparisce l’obbligo di approvazione dei trattamenti dei dati, anche secondari da parte dei comitati etici interessati.
I trattamenti dei dati personali vanno però sempre comunicati al Garante Privacy ed in vista c’è un decreto del Ministero della Salute – da emanarsi entro 120 giorni dall’entrata in vigore della futura legge – per la definizione di una disciplina semplificata del trattamento dei dati personali, anche particolari, per finalità di ricerca e sperimentazione.
La Legge poi prevede una modifica alla Legge 221/2012 sul Fascicolo sanitario elettronico (FSE) per consentire l’utilizzo di soluzioni di IA a supporto del FSE e, più in generale, dell’assistenza territoriale oltre all’istituzione di una piattaforma di intelligenza artificiale da parte dell’Agenzia nazionale per i servizi sanitari regionali (AGENAS) in qualità di Agenzia nazionale per la sanità digitale.
La tutela algoritmica nell’AI-Act italiano
In particolare, segnaliamo l’articolo 16, che reca una delega al Governo per la definizione organica di una disciplina relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di IA, affidando le controversie in materia alle sezioni specializzate in materia d’impresa.
Intelligenza artificiale e tutela dei lavoratori, cosa prevede la Legge
Non mancano nella Legge alcuni riferimenti all’intelligenza artificiale applicata al mondo del lavoro ed il ribadimento dell’approccio cd. antropocentrico, che dovrebbe guidare il Governo nel legiferare sulle applicazioni di AI nel mondo del lavoro.
L’articolo 11 individua gli obiettivi che si intendono perseguire mediate l’impiego di tale tecnologia. Fra questi spicca:
- il miglioramento delle condizioni di lavoro
- la salvaguardia dell’integrità psico-fisica dei lavoratori,
- l’incremento delle prestazioni lavorative e della produttività delle persone, rispettando la dignità umana,
- la riservatezza dei dati personali e i diritti inviolabili dei prestatori.
Il comma 2 specifica che il ricorso a sistemi di IA non può ledere i diritti inviolabili della dignità umana e della riservatezza dei dati personali. Richiede che il datore sia tenuto a fornire al lavoratore un’informativa trasparente sugli ambiti di impiego di sistemi di IA.
L’articolo 12 istituisce anche presso il Ministero del lavoro e delle politiche sociali, l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro. Questo al fine di contenere i rischi derivanti dall’impiego dei sistemi di IA in ambito lavorativo, massimizzando i benefici.
Cosa dovrà fare?
- definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo;
- monitorare l’impatto sul mercato del lavoro;
- identificare i settori lavorativi maggiormente interessati dall’avvento dell’intelligenza artificiale;
- promuovere la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale.
Per approfondire sul testo della Legge suggeriamo la consultazione del Dossier diffuso dalla Camera.
Giornalista e Formatore certificato in Sicurezza sul lavoro
a.mazzuca@insic.it
M. 3351739668