GUARDA QUIhttps://accademiaitalianaprivacy.it/areaprivata/foto/1979/01.jpg
giovedì 3 luglio 2025
Di Avv. Gianni Dell’Aiuto
C’è chi oggi misura l’importanza di una persona in base alla sua pagina Wikipedia. Il problema è che di certi nomi ci accorgiamo solo quando quella pagina… manca.
Latanya Sweeney, ad esempio, ha solo elementi basic che parlano di lei nella pagina in inglese dell'enciclopedia partecipativa su cui chiunque può scrivere e non ha una versione in italiano e nemmeno in altre lingue. Eppure, per chi si occupa di privacy, dati e intelligenza artificiale, dovrebbe essere una figura di riferimento. I suoi libri neppure sono tradotti e le sue ricerche poco conosciute.
Eppure, questa Professoressa alla Harvard Kennedy School, pioniera della privacy dei dati, già nel 2000 aveva dimostrato che bastano tre informazioni, data di nascita, CAP e genere, per identificare una persona. Senza l’AI generativa, senza i social, senza ChatGPT.
Oggi, con questi strumenti e un mondo interconnesso, di quella intuizione dovremmo non solo ricordarci, ma averne timore. Perché con “tre dati e un computer” si arriva ovunque. Anche a noi.
Le aziende dovrebbero esserne pienamente consapevoli: non solo per adempiere agli obblighi di legge in materia di protezione dei dati personali, ma anche, e soprattutto, per comprendere il potenziale strategico (e i rischi) legati all’uso di quei dati.
Potrebbe interessarti > Le strette correlazioni tra corporate governance e GDPR
Perché ogni informazione raccolta, apparentemente banale o innocua può essere aggregata, incrociata e rielaborata fino a diventare un identikit preciso del cliente. Profilazione, re-identificazione, inferenza predittiva: strumenti oggi accessibili non solo ai giganti del web, ma a qualsiasi impresa che utilizzi software di marketing, CRM o analytics avanzati.
Eppure, molte aziende ancora credono che basti oscurare un nome o togliere un codice fiscale per essere “a posto”. Non è così. Il vero rischio, e insieme la vera opportunità, è nella capacità di collegare i punti. E la Sweeney, oltre vent’anni fa, lo aveva già dimostrato.
Oggi, con l’AI generativa, con i social e con la crescente disponibilità di dati pubblici e semi-pubblici, chi gestisce un’impresa dovrebbe porsi una domanda semplice ma cruciale: sono davvero io a controllare i dati della mia azienda o sono i dati a controllare me?
Potrebbe interessarti > Intelligenza artificiale generativa. Nuove sfide per la protezione dei dati
La verità è che oggi non manca la tecnologia. Manca la consapevolezza. I dati non sono una risorsa neutra. Sono una materia prima delicata, capace di costruire fiducia o distruggerla in un istante. Troppe imprese, sedotte dall’intelligenza artificiale e dalla promessa dell’efficienza automatica, dimenticano che l’uso dei dati è regolato. E deve restare entro i limiti fissati dalle informative, dai consensi e dalla legge.
È qui che serve una consapevolezza non solo informatica ma legale e, di conseguenza, ogni azienda dovrebbe contare su un supporto legale che conosca la materia. Non come freno, ma come guida. Una figura che sappia tenere a bada i tecnici, gli sviluppatori, i consulenti IT e i ricercatori troppo entusiasti. Che ricordi che i dati raccolti possono essere usati solo per gli scopi dichiarati. Che pretenda tracciabilità, basi giuridiche solide e rispetto per i diritti delle persone.
Un algoritmo si aggiorna in pochi secondi. Ma un errore nel trattamento dei dati può costare caro. In soldi, in reputazione, in fiducia persa.
Non ti far venire strane voglie usando l’intelligenza artificiale. Hai strumenti potenti. Fanne buon uso. Altrimenti rischi sanzioni, contenziosi e una reputazione che nessuna AI potrà mai riparare.
E ricordiamo che, anche se i nostri utenti sembrano aver rinunciato alla loro privacy con qualche click frettoloso, nulla vieta che domani decidano di rivendicarla con la stessa leggerezza. Basta un modulo, una segnalazione al Garante, e l’azienda può trovarsi sotto accertamento.ù
Quello che oggi appare come un consenso distratto, domani potrebbe trasformarsi in una contestazione formale. E se le basi giuridiche vacillano, le conseguenze sono concrete: sanzioni, blocco dei trattamenti, obblighi di rettifica o risarcimenti.
Non è una questione teorica. È responsabilità. È governance. Ed è ora di prenderla sul serio.
CONDIVIDI QUESTA PAGINA!