GUARDA QUIhttps://www.accademiaitalianaprivacy.it/areaprivata/foto/436/01.png
martedì 27 ottobre 2020
Avv. Gianni Dell’Aiuto
Il “Deep porn” sembrava fosse "un gioco" destinato solo alle celebrità, adesso però c'è una nuova app, che sembra sia nata sulla versione russa di Instagram, tramite la quale, sfruttando un sistema di intelligenza artificiale, sono state prese dai social oltre 600.000 immagine di donne per spogliarle e produrre false immagini che sembrano reali scatti di nudo.
Le notizie riferiscono di come Telegram abbia provveduto a chiudere il gruppo, che già contava oltre 80.000 membri, dove venivano scambiate queste foto, tra le quali, come purtroppo immaginabile, anche quelle di minorenni. Adesso ogni donna che ha messo in rete una sua qualsiasi immagine, deve essere consapevole che in qualche cloud o memoria del web, può trovare quella stessa foto in cui balla o mangia una pizza in versione adamitica e che la stessa immagine potrebbe finire sul cellulare del marito o compagno, genitori, figli, colleghi di lavoro. Potrebbe accadere anche ad uomini, ma si parla al momento solo di donne e, dalle informazioni reperibili in internet, sembra che a Luglio 2020 oltre centomila ne siano rimaste vittime inconsapevoli.
In molti casi i fake sono stati utilizzati per prendere di mira celebrità e politici. Questa tecnologia è diventata inizialmente popolare nei profondi recessi di Internet proprio come un modo per creare video porno con celebrità come protagonisti ed è stata talvolta usata per campagne di molestie e per mettere a tacere le giornaliste donne. Sembra, e non abbiamo problemi a crederci, che influencer e YouTuber abbiano addirittura inviato le loro immagini pornografiche e deepfaked direttamente ai loro sponsor, ottenendo ritorni di immagine e a livello economico, ma quando le immagini sono create a danno di ignari utenti del web il problema si pone in una diversa prospettiva..
Anche se la maggior parte delle immagini sembra siano state veicolate su piattaforme russe, la loro diffusione sarebbe già massiva. La app “autrice” di queste immagini sarebbe ben diversa da quella che permetteva di collocare il volto di una donna su un corpo nudo: in questo caso la app letteralmente spoglia la vittima e ricrea tutti i particolari del suo corpo. Anche se le foto maggiormente utilizzate sarebbero quelle in costume o intimo, ogni tipo di abito può essere tolto. Immaginabile anche che alcune immagini potrebbero essere usate a scopo di ricatto verso ignare vittime che non vorrebbero certo una ulteriore diffusione di queste immagini. Ma anche pagando ad un estortore non è possibile avere la certezza che queste immagini scompaiano dalla rete. Ricordiamolo sempre che Internet ha una memoria infinita e incancellabile.
Il Garante Privacy, venuto a conoscenza dell’accaduto, ha aperto un’istruttoria e, in un comunicato, ha riferito che chiederà a Telegram di fornire informazioni al fine di verificare il rispetto delle norme sulla protezione dei dati nella messa a disposizione agli utenti del programma informatico, nonché di accertare l’eventuale conservazione delle immagini manipolate e le finalità di una tale conservazione. Ha altresì dichiarato che sono in fase di valutazione ulteriori iniziative per contrastare usi illeciti di software e contenere gli effetti del deep fake.
Resta in ogni caso la certezza che, oltre a quelli innumerevoli che già conoscevamo, da oggi c'è un’ennesima minaccia che, ancora una volta, prende di mira donne e giovanissimi. Specialmente per questi ultimi, spesso ignari dei reali rischi che si corrono in rete e delle possibili conseguenze, è necessaria un’attenta attività non solo di educazione alla protezione del dato, ma anche di interventi da parte del Garante e delle autorità preposte in via possibilmente preventiva.
venerdì 15 novembre 2024
Leggi tutto...
CONDIVIDI QUESTA PAGINA!