L’incresciosa vicenda delle immagini di Taylor Swift generate dall’intelligenza artificiale generativa ha creato disappunto e destato preoccupazione su come le tecnologie di nuova generazione possano facilmente mettere a repentaglio la sicurezza delle persone.

Gli strumenti di manipolazione visiva che prima erano in mano a pochi esperti ora sono a disposizione di tutti, e chiunque con un minimo di esercizio è in grado di utilizzare software come Microsoft Designer per generare immagini false e compromettenti.

Dagli Stati Uniti arriva la richiesta di permettere a chi viene rappresentato in immagini deepfake intime senza il proprio consenso di fare causa per molestie. Con il disegno di legge sulla falsificazione digitale proposto dal Disrupt Explicit Forged Images and Non-Consensual Edits Act (DEFIANCE Act) la vittima potrebbe così ottenere un risarcimento da chi ha prodotto o posseduto consapevolmente l’immagine manipolata digitalmente con l’intenzione di diffonderla.

Il DEFIANCE Act non riguarda solamente i deepfake, estendendo il concetto di falsificazione a tutte le immagini sessuali intime generate da software, machine learning ed intelligenza artificiale, anche se contrassegnate da un’etichetta che ne dichiara la falsità – ad esempio immagini reali modificate con Photoshop per renderle sessualmente esplicite.

Attualmente negli Stati Uniti non c’è chiarezza a riguardo e non sono previsti risarcimenti legali per le vittime: esistono, sì, leggi che vietano la pornografia non simulata e non consensuale, ma c’è un vuoto normativo riguardo i deepfake. La Casa Bianca ha incluso questo argomento nell’agenda di regolamentazione dell’intelligenza artificiale, il caso Taylor Swift potrebbe contribuire ad accelerare il processo.

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *

//iglegoarous.net/4/6884838