DeepFake

Deepfake e diritto: privacy, dati biometrici e responsabilità legali nell’era dell’AI

21 0

Dalle normative esistenti a livello nazionale e sovranazionale, fino al ruolo cruciale delle piattaforme digitali e delle tecnologie di detection: sono questi i principali strumenti oggi disponibili per fronteggiare il fenomeno dei Deep Fake. In questo articolo vediamo come un approccio integrato e multidisciplinare, capace di armonizzare le risposte legislative, etiche e tecnologiche, può contenere i rischi connessi all’uso distorto dell’intelligenza artificiale nella generazione di contenuti falsificati.

Deepfake: le implicazioni legali

Se affrontiamo il tema dei deep fake dal punto di vista legale, la loro diffusione solleva, in primis, questioni rilevanti riguardo la protezione della privacy dei dati biometrici delle persone fisiche. L’immagine e la voce di una persona sono diritti inviolabili della stessa e il loro utilizzo senza un consenso espresso può costituire atti illegali.

Recentemente, il quadro normativo italiano è stato rafforzato attraverso l’introduzione dei reati ex articoli 612-ter c.p. (c.d. “Revenge porn“) e 612-quater c.p. da parte della legge 132/2025 con l’obiettivo specifico di colpire, tra l’altro, la diffusione illegale di contenuti simili. Inoltre, a livello europeo, l’AI Act (Regolamento europeo 2024/1689) considera tali sistemi come potenzialmente ad alto rischio e, in caso di utilizzo di intelligenza artificiale che potrebbe fuorviare gli utenti, stabilisce specifici obblighi di trasparenza di concerto con quanto già precedentemente stabilito dal GDPR (Regolamento europeo 2016/679).

Contrastare i deepfake: legislazione vigente e proposte normative

L’AI Act è uno dei tentativi più avanzati di regolamentazione dell’uso dell’intelligenza artificiale, che stabilisce principi di responsabilità e trasparenza. L’obbligo di informare gli utenti della generazione artificiale dei contenuti è uno strumento essenziale per limitare l’inganno e le conseguenze che possono derivarne. Inoltre, la normativa precedentemente esistente, a tutela della privacy e dei dati personali, qual è il GDPR, fornisce alcune delle mitigazioni citate; in particolare, le protezioni offerte vengono violate ogni volta che, a causa della mancanza di una base legale adeguata, si manifesta un trattamento di dati biometrici dei soggetti interessati.

Il ruolo delle piattaforme digitali

Oltre ad un apparato normativo solido, la responsabilità delle piattaforme digitali e la tecnologia di rilevamento saranno protagonisti nel contesto in analisi. Sono state sviluppate piattaforme che possono rilevare automaticamente contenuti audiovisivi utilizzando micro espressioni, incoerenze nei modelli visivi e irregolarità nel tono di voce. I proprietari delle piattaforme dovrebbero integrare tecnologie di rilevamento e dovrebbero supportare la verifica e la tracciabilità dei contenuti, contribuendo attivamente alla riduzione della disinformazione.

La necessità di un quadro normativo globale e trasversale

Quanto espresso porta a considerare il fenomeno dei deepfake come un uso ambivalente dell’intelligenza artificiale. Da un lato, possono esserci alcune applicazioni positive: opportunità significative per l’insegnamento “riportando in vita” personaggi famosi che raccontino la propria storia, o la ricerca in campo medico. Dall’altro, ci sono vere minacce ai diritti fondamentali e all’integrità dell’informazione. La promulgazione di un corpus di leggi adeguate, lo sviluppo di un senso critico insieme ad una fondamentale educazione digitale ed etica, sono l’insieme dei comportamenti per affrontare in modo corretto il problema della disinformazione causata dai deepfake.

Consulta anche l’articolo:

Deepfake 2.0: cosa sono, come funzionano e perché minacciano l’informazione digitale

Consulta i volumi di EPC Editore

Partecipa al corso dell’istituto INFORMA

Jacopo Piccioli

Consulente senior nel settore Governance, Risk & Compliance, ha esperienza in privacy e sicurezza delle informazioni.
Laureato in Giurisprudenza a Torino e specializzato in cybersecurity al Politecnico di Milano, opera in contesti internazionali complessi e multiculturali. È lead auditor certificato Europrivacy, ISO 27001 e ISO 42001 e supporta le organizzazioni nell’adeguamento alle normative digitali europee.

Jacopo Piccioli

Consulente senior nel settore Governance, Risk & Compliance, ha esperienza in privacy e sicurezza delle informazioni. Laureato in Giurisprudenza a Torino e specializzato in cybersecurity al Politecnico di Milano, opera in contesti internazionali complessi e multiculturali. È lead auditor certificato Europrivacy, ISO 27001 e ISO 42001 e supporta le organizzazioni nell’adeguamento alle normative digitali europee.