Il governo del Regno Unito ha annunciato che varerà delle norme per vietare le app che, manipolando l'immagine originaria, ne creano di nuove in cui i soggetti vengono denudati. La decisione è stata annunciata come parte degli sforzi per contrastare la misoginia online.
Regno Unito: saranno perseguite le app che "nudificano" le immagini
Le nuove leggi fanno parte di una strategia più ampia per frenare la violenza contro donne e ragazze, rendendo illegale la creazione e la fornitura di strumenti di intelligenza artificiale che consentono agli utenti di modificare le immagini per apparentemente spogliare dei vestiti le persone ritratte.
I nuovi reati si baserebbero sulle norme esistenti in materia di deepfake sessualmente espliciti e abusi di immagini intime, ha affermato il governo.
"Le donne e le ragazze meritano di essere al sicuro sia online che offline", ha affermato il Segretario alla Tecnologia Liz Kendall. "Non resteremo a guardare mentre la tecnologia viene usata come arma per abusare, umiliare e sfruttare le persone attraverso la creazione di deepfake sessualmente espliciti e non consensuali", ha aggiunto.
Creare immagini deepfake esplicite di qualcuno senza il suo consenso è già un reato ai sensi dell'Online Safety Act.
Kendall ha affermato che il nuovo reato significherebbe che "coloro che ne traggono profitto o ne consentono l'uso subiranno tutta la forza della legge".
Le app di nudità o "de-clothing" utilizzano l'intelligenza artificiale generativa per far sembrare realisticamente che una persona sia stata spogliata dei propri vestiti in un'immagine o in un video.
Gli esperti hanno lanciato l'allarme sull'aumento di tali app e sul rischio che immagini false di nudo possano causare gravi danni alle vittime, in particolare se utilizzate per creare materiale pedopornografico (CSAM).
Ad aprile, la Commissaria per l'infanzia in Inghilterra, Dame Rachel de Souza, ha chiesto il divieto totale delle app di nudità . "L'atto di creare un'immagine del genere è giustamente illegale, e lo dovrebbe essere anche la tecnologia che lo consente", ha affermato in un rapporto.
Il governo ha dichiarato che avrebbe "unito le forze con le aziende tecnologiche" per sviluppare metodi per combattere l'abuso dell'immagine intima.
Ciò includerebbe la continuazione della collaborazione con l'azienda britannica di tecnologia per la sicurezza SafeToNet. L'azienda britannica ha sviluppato un software di intelligenza artificiale che, a suo dire, è in grado di identificare e bloccare contenuti di natura sessuale, nonché di bloccare le telecamere quando rilevano la ripresa di contenuti di natura sessuale.
Questa tecnologia si basa sui filtri esistenti implementati da piattaforme come Meta per rilevare e segnalare potenziali nudità nelle immagini, spesso con l'obiettivo di impedire ai bambini di scattare o condividere immagini intime di se stessi.
I piani per vietare le app che mostrano nudità arrivano dopo le precedenti richieste da parte di enti di beneficenza per la tutela dei minori al governo di reprimere questa tecnologia.
L'Internet Watch Foundation (IWF), la cui linea di assistenza Report Remove consente ai minori di 18 anni di segnalare in modo confidenziale immagini esplicite di se stessi online, ha affermato che il 19% dei reporter confermati ha dichiarato che alcune o tutte le loro immagini sono state manipolate.