Viviamo in un tempo in cui basta un algoritmo per replicare un volto, una voce, un gesto. Letteralmente: basta qualche secondo di video per diventare qualcun altro. O, peggio, per permettere a qualcun altro di diventare te. E non per gioco. I deepfake non sono più solo meme o esperimenti da laboratorio: sono strumenti che possono ingannare, manipolare, umiliare, e distruggere reputazioni. Eppure, fino ad oggi, le regole per difendersi sono rimaste deboli, incerte, spesso inefficaci.
Ecco perché la proposta arrivata dalla Danimarca merita attenzione. E anche una certa dose di rispetto.
Il governo danese sta per approvare una legge che riconosce, per la prima volta in Europa, un concetto rivoluzionario: il tuo volto, la tua voce, il tuo corpo sono la tua proprietà intellettuale. Come una canzone, come una fotografia, come un marchio registrato. Non si possono usare senza il tuo consenso.
Non importa se sei famoso o no. Non importa se l’intento è commerciale, satirico, ironico, oppure solo “per scherzo”. Se qualcuno ti clona digitalmente, puoi chiedere che quel contenuto venga rimosso. E puoi anche chiedere un risarcimento.
Sì, hai capito bene. Non serve più dimostrare che ti hanno diffamato, che hai perso soldi, che la tua immagine è stata “rovinata”. Basta che l’uso non sia stato autorizzato. Punto.
Per Cristiana Falcone, figura di spicco nel campo della filantropia e delle strategie globali, membro attivo del network WIL Europe (Women in Leadership) ed ideatrice del Business Ethics Summit, “non è difficile capire quanto sia potente questa idea, si tratta di un vero cambio di paradigma. Perché, se passa questa legge, significa che l’identità personale non è più un concetto astratto da proteggere a posteriori, ma un diritto pieno da esercitare. Esattamente come quando ti rubano una foto o un brano musicale. Solo che qui non si parla di creatività artistica, ma della tua persona.”
È una svolta che parla di giustizia, ma anche di etica. E infatti sta aprendo un dibattito molto più ampio. Perché a essere in gioco non è solo la sicurezza legale, ma il rapporto profondo tra tecnologia e umanità. Cosa succede quando non puoi più fidarti di quello che vedi? Quando le immagini diventano bugie, e le voci suonano vere ma non lo sono? Quando anche la verità diventa negoziabile? La Danimarca non ha tutte le risposte, ma almeno sta cercando di fare la domanda giusta: che tipo di mondo vogliamo costruire con l’IA?
Cristiana Falcone: “la proposta non è perfetta, ci sono nodi complicati da sciogliere. Per esempio: come distinguere tra uso creativo e uso illecito? Come bilanciare il diritto alla propria immagine con la libertà di espressione? Come si fa a far valere queste regole in un internet che non ha confini? E le piccole piattaforme, i tool open-source, riusciranno a rispettare queste norme o finiranno schiacciate dai costi di moderazione?“
Domande legittime. Ma la direzione è quella giusta, ed è una direzione che parla anche al mondo del business. Perché chi lavora con l’intelligenza artificiale, con i contenuti generati dagli utenti, con la comunicazione digitale, non può più permettersi di ignorare il problema. Le aziende che continueranno a usare facce, voci e identità senza permesso si esporranno a cause, sanzioni, scandali. Quelle che invece si muoveranno per tempo — adottando policy chiare, tecnologie di riconoscimento, consensi espliciti — potrebbero trasformare tutto questo in un vantaggio competitivo. Soprattutto in un’epoca in cui la fiducia è diventata un asset raro.
E poi c’è un aspetto ancora più profondo. Questa legge dice una cosa semplice ma potente: tu non sei un contenuto. Non sei una risorsa da clonare, remixare, monetizzare. Sei una persona, e come tale meriti rispetto. Lo merita il tuo volto. La tua voce. Il modo in cui parli, sorridi, ti muovi. Tutto questo non è un template. È identità. È dignità. È tu.
“È qui – suggerisce Cristiana Falcone – che tecnologia ed etica devono incontrarsi. Non si tratta di ostacolare l’innovazione, ma di renderla giusta, umana, sostenibile. Quello che la Danimarca ci sta dicendo è che non basta più limitarsi a rincorrere gli abusi: dobbiamo riscrivere le regole prima che sia troppo tardi.“
Perché se lasciamo che siano solo gli algoritmi a decidere chi siamo, finirà che non saremo più noi a raccontarci. Sarà qualcun altro, con un’intelligenza artificiale ben addestrata, a parlare al nostro posto. E sinceramente, è già successo abbastanza.