fbpx

Deepfake: cosa sono e come combatterli

632 0

Desta ormai particolare preoccupazione una delle applicazioni di Intelligenza Artificiale più avanzate: i deepfake. In questo articolo vediamo cosa sono, come funzionano, il loro uso malevolo e cosa dice il Regolamento del Parlamento Europeo sull’Intelligenza Artificiale

Cosa sono i Deepfake

Il Deepfake è una tecnologia che utilizza una forma di Intelligenza Artificiale chiamata deep learning, capace di creare video falsi, ma assolutamente verosimili.  

Come funzionano i Deepfake

Con la tecnica dei Deepfake si sovrappone in un video un volto diverso al viso di una persona creando così uno scambio di identità. Rappresenta una minaccia per gli utilizzi illegittimi a cui si presta in quanto è in grado di:
– danneggiare la reputazione di persone e aziende;
– interferire nella politica a livello nazionale e internazionale;
– fornire un nuovo strumento alla propagazione di fake news.

Deepfake: l’uso malevolo della tecnologia

In politica

Alcune applicazioni particolarmente eclatanti possono anche far sorridere se diffuse in determinati contesti goliardici. Purtroppo con i politici diventa complicato capire il confine tra vero e falso. A volte può perfino diventare un’arma durante una campagna elettorale per screditare il rivale.

Il Revenge Porn

Inoltre si può sconfinare tranquillamente anche nel revenge porn quando si diffondono film pornografici come è già accaduto a Emma Watson, Scarlet Johansson, Gal Gadot; attrici che sono diventate protagoniste di film erotici mai girati; il loro volto sostituiva perfettamente quello della pornostar, facendo nascere anche equivoci con gravi danni di immagine.

In Italia recentemente è stata presentata una proposta dai senatori M5S che hanno predisposto uno schema di ddl per punire l’uso come revenge porn di tale tecnologia fino a sei anni di carcere. 

Deepfake: la preoccupazione del Parlamento Europeo

Anche in ambito comunitario c’è una particolare preoccupazione in merito a tali tecnologie così invadenti.
Si pensi alla recente Risoluzione del Parlamento Europeo del 20 gennaio 2021 sull’intelligenza artificiale ed avente ad oggetto: “questioni relative all’in­terpretazione e applicazione del diritto inter­nazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale”.  La Risoluzione richiama l’at­tenzione sulle minacce ai diritti umani fonda­mentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di IA nella sorveglian­za civile e militare di massa.

Il Parlamento Europeo chiede alle autorità pubbliche che sia vietato l’uso di “applicazioni altamente invasive di punteggio sociale” (per il monito­raggio e la valutazione dei cittadini); manifesta inoltre seria preoccupazione per le tecnologie di deep fake, in quanto hanno il potenziale di “de­stabilizzare i paesi, diffondere la disinforma­zione e influenzare le consultazioni elettorali”.

I creatori dovrebbero essere obbligati ad eti­chettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.

Il rischio dei sistemi di identificazione biometrica

In particolare, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi anche nella recente proposta di Regolamento della Commissione europea sull’Intelligenza Artificiale.
In linea di principio è vietato il loro utilizzo in tempo reale ai fini di attività di contrasto in spazi accessibili al pubblico. Sono previste poche eccezioni rigorosamente definite e regolamentate. Ad esempio, ove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave.

Tale uso è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.

I requisiti di trasparenza

Tutti i sistemi di riconoscimento delle emozioni e di categorizzazione biometrica saranno infine sempre soggetti a specifici requisiti di trasparenza. Saranno anch’essi considerati applicazioni ad alto rischio se rientrano nei casi d’uso che li identificano come tali; ad esempio nei settori dell’occupazione, dell’istruzione, delle attività di contrasto, della migrazione e del controllo delle frontiere.

Le diverse forme di identificazione biomedica

Non dimentichiamo che l’identificazione biometrica può assumere varie forme.
Può essere utilizzata per l’autenticazione degli utenti: ad esempio per sbloccare uno smartphone o per le verifiche/l’autenticazione presso i valichi di frontiera nei controlli dell’identità e dei documenti di viaggio di una persona (corrispondenza “uno a uno”). L’identificazione biometrica remota potrebbe anche essere utilizzata per identificare persone nella folla, ad esempio confrontando l’immagine di una persona con quelle contenute in una banca dati (corrispondenza “uno a molti”).

L’accuratezza dei sistemi per il riconoscimento facciale può variare in modo significativo in base a un’ampia gamma di fattori, quali la qualità della fotocamera, la luce, la distanza, la banca dati, l’algoritmo e l’etnia, l’età o il sesso del soggetto.

Lo stesso vale per il riconoscimento vocale e dell’andatura e per altri sistemi biometrici.

Il tasso di errore

Il tasso di falsi positivi dei sistemi altamente avanzati è in continua diminuzione. Un tasso di accuratezza del 99% può sembrare buono in generale, mentre è notevolmente rischioso quando può condurre a sospettare di una persona innocente. Anche un tasso di errore dello 0,1% è molto elevato se riguarda decine di migliaia di persone.

Figuriamoci, poi, quando i dati biometrici di un qualsiasi individuo vengano letteralmente copiati ed utilizzati per diffondere immagini, filmati ed applicazioni multimediali totalmente false ed ingannatorie come nel caso del deep fake.


Sull’argomento dell’Intelligenza Artificiale puoi consultare il volume di EPC Editore:
Etica delle intelligenze artificiali per leader aziendali e startupper
Daniele Verdesca

Michele Iaselli

Avvocato, funzionario del Ministero della Difesa, docente a contratto di informatica giuridica all’Università di Cassino e collaboratore della cattedra di informatica giuridica alla LUISS ed alla Federico II.  Presidente dell’Associazione Nazionale per la Difesa della Privacy (ANDIP). Relatore di numerosi convegni, ha pubblicato diverse monografie e contribuito ad opere collettanee in materia di privacy, informatica giuridica e diritto dell’informatica con le principali case editrici. Scopri tutte le pubblicazioni di Michele Iaselli edite da EPC Editore