GUARDA QUIhttps://www.accademiaitalianaprivacy.it/areaprivata/foto/801/01.jpg

Dettaglio news
L'educazione alla protezione del dato


mercoledì 27 settembre 2023
Avv. Gianni Dell’Aiuto



 

Il pericolo dei deep fake

L’ultimo episodio di cui si è occupata la cronaca viene dalla Spagna. Foto di ragazzine nude create da sistemi di intelligenza artificiale che, avendo a disposizione il loro volto e pochi altri elementi, hanno ricostruito alla perfezione il corpo. Le notizie riportanto di come i responsabili potrebbero essere dei compagni di scuola che, nelle loro intenzioni, volevano fare uno scherzo o semplicemente divertirsi. È ipotesi plausibile perlomeno nel contesto a cui fa riferimento l’episodio. Ma ne potremo essere sicuri solo al termine delle indagini in corso.

Non è certo il momento di fare retorica chiedendo a chi pensa possa essere uno scherzo o una goliardata che cosa ne penserebbe se trovasse un’immagine di sè stesso nudo o in atti sessuali espliciti sul web. O, come già accaduto, vedersi impegnato in un video ad alto contenuto pornografico magari con persone dello stesso sesso. Ricordiamo alcune circostanze di base, elementari, che in molti a volte dimenticano.

La prima è che tutto ciò che noi diffondiamo in rete, anche semplicemente con un messaggio Whatsapp ad un amico fidato, entra nella disponibilità potenziale dell’intero web. La seconda è che, in ogni caso, non sappiamo e non possiamo sapere, con assoluta certezza, chi si trova dall’altra parte del nostro schermo. Ed ovviamente non possiamo sapere le sue intenzioni. Lo scorso luglio l’FBI ha messo in guardia contro un aumento delle campagne di estorsione in cui i criminali sfruttano strumenti di intelligenza artificiale facilmente disponibili per creare deepfake sessualmente espliciti da foto, anche normali, per realizzare ricatti. Non si tratta di un semplice furto di identità, ma qualcosa di molto più infido e pericoloso anche a lungo termine.

I deepfake rappresentano un'intersezione pericolosa tra innovazione tecnologica e potenziale abuso. Utilizzando l'apprendimento automatico, questi strumenti possono sostituire volti in video, manipolare voci e creare immagini false che sembrano reali. Questi contenuti possono essere utilizzati in modo fraudolento o dannoso, con conseguenze gravi sulla privacy specialmente dei minori.

Per approfondire > Il Garante interviene sul deepfake

 

L'educazione all'uso della rete passa dalla consapevolezza dell'importanza dei dati personali

D’accordo, viviamo ormai in una realtà digitale in cui l’immagine è diventata tutto, ma una maggiore consapevolezza sarebbe quantomeno opportuna perchè con l’aumento della visibilità aumentano anche i rischi e i cybercriminali sono pronti a cogliere ogni minima opportunità venga loro offerta. I consigli che si posssono dare sono sempre gli stessi che si trovano su numerosi siti ad iniziare da quelli della Polizia: dall’evitare di diffondere immagini, specialmente di minori e a rivedere periodicamente le impostazioni privacy dei propri dispositivi fino al più scontato dei suggerimenti, vale a dire non inviare foto, specialmente esplicite, a sconosciuti.

Tuttavia, alla base, resta un problema di educazione all’uso della rete e di consapevolezza dell’importanza dei dati personali. Non è ancora chiaro, per moltissimi navigatori, il concetto di protezione di sè stessi, della propria immagine e delle persone a loro vicine. La tua foto in vacanza è un messaggio per un ladro di appartamenti; l’immagine di un bambino appena nato mette a disposizione di chiunque non solo nome, cognome, luogo e data di nascita oltre al codice fiscale oltre al nome di amici e parenti dei genitori social, ma anche, spesso, immagini che possono essere usate al momento giusto per la creazione di un suo profilo o di una doppia identità. In molti, ancora, non sono consapevoli che, oltre a poter configurare reato, un uso illecito di immagini altrui può dare origine a richieste di risarcimento danni.

Il cammino verso l’educazione digitale non è semplice, in quanto il nemico è il culto dell’immagine che la rete ha sviluppato.




CONDIVIDI QUESTA PAGINA!