GUARDA QUIhttps://www.accademiaitalianaprivacy.it/areaprivata/foto/379/01.png

Dettaglio news
BIG DATA: il grande labirinto dei dati - indagine conoscitiva di Garante e AGCOM. Parte 1


lunedì 22 giugno 2020
di s-mart.biz



 

Qualche mese fa il Garante per la Protezione dei Dati e l'AGCOM hanno pubblicato i risultati di una indagine conoscitiva sullo stato reale, una fotografia potremmo dire, dei BIG DATA. La relazione ci pare molto importante per sensibilizzare gli utenti su come sono usati i loro dati e, suddividendola in parti, ne vogliamo rendere i punti salienti. In questa prima parte introduciamo a grandi linee i big data, analizzando in breve la filiera del dato, ovvero Raccolta > Elaborazione > Interpretazione. Nella prossima invece vedremo più nel dettaglio la profilazione, l'anonimizzazione o pseduonimizzazione del dato, la portabilità dello stesso.

L'intero report è consultabile qui.

Introduzione ai big data
I dati hanno assunto un valore ormai centrale nell'organizzazione delle attività di produzione e di scambio, tanto da poterli effettivamente considerare un vera e propria risorsa economica. Le organizzazioni, grazie agli avanzamenti tecnologici e della connettività, raccolgono ormai dati di ogni tipo, per elaborarli e migliorare di conseguenza sia i propri processi decizionali che la capacità di prevedere tendenze, ma anche per targetizzare la propria offerta. Qualche numero utile: nel 2018 il volume totale dei dati creati è stato di 28 zettabyte (10 volte in più del 2011): entro i 2025 produrremo almeno 163 zettabyte all'anno.

La maggior parte dei dati passa da Internet: 44 milioni di messaggi inviati ogni minuto via web, 2.3 milioni di ricerche su Google, 3 milioni di "mi piace" e altrettanti di condivisioni su facebook, 2.7 milioni di download da Youtube. Al minuto.

Con Big data ci si riferisce proprio alla raccolta, accumulo e analisi di ingenti quantità di dati provenienti da divesre fonti. Le dimensioni immani di tali database rendono necessario l'uso di sistemi automatizzati di trattamento per individuare tendenze, modelli o correlazioni di natura probabilistica: da qui l'uso degli algoritmi. Un esempio? L'analisi dei big data può portare un operatore della grande distribuzione a modificare il posizionamento a scaffale dei prodotti nei propri negozi: esso si limita a prendere evidenza della cosa in base a correlazioni tra dati e non ha bisogno di comprendere come e perchè tale spostamento abbia un impatto positivo sui ricavi. Semplicemente i dati relativi alle azioni ripetute migliaia di volte da migliaia di clienti, raccolti e quindi elaborati, indicano che quello spostamento di scaffale migliora le vendite.


Quali dati e da quali fonti?
A grandi linee è possibile dividere in dati che sono elaborati nel contesto dei Big Data in due tipologie: personali e non personali. La distinzione è importante e ribadita anche sotto il profilo legale: l'elaborazione di dati non personali (dati metereologici, georgrafici, economici ecc..) è regolamentata dal Regolamento UE 2018/1807 e prevede un accordo di libera circolazione di tali dati nell'UE. Per i dati personali, invece, la raccolta ed elaborazione sono disciplinate dal GDPR. La generazione dei dati è da imputarsi invece in grandissima parte agli utenti stessi e alle attività che compiono online: le organizzazioni generano di per sé un volume estremamente ridotto di dati.

Una fonte primaria di generazione dei dati sono i servizi online: email, social network e altre forme di piattaforme digitali. Essi esistono e raccolgono dati in conseguenza e grazie a quanto gli utenti decidono di condividere, popolando quei servizi di contenuti. A questi dati vanno aggiunti quelli generati dalle funzionalità dei dispositivi personali (tablet, computer, smartphone ecc..).

La foto sopra mostra un esempio di raccolta dati su una piattaforma di e-commerce: le attività svolte dall'utente possono fornire informazioni molto rilevanti sui comportamenti e le preferenze degli individui.

Un'altra fonte molto importante, ma della quale gli utenti sembrano non tenere grande considerazione, sono i dispositivi IoT (Internet Of Things), ovvero qualsiasi dispositivo "intelligente" connesso al web: una delle principali fonti di dati personali (compresi dati sanitari) sono ad esempio i dispositivi wereable, come gli smartwatch , che registrano dati come parametri biologici e relativi alle attività sportive degli utenti.

Tutta questa mole di dati è resa disponibile alle organizzazioni tramite i nostri dispositivi: sono questi che funzionano, sia in termini hardware che software, da fonte di acquisizione per i dati. Ecco perchè tutti i servizi online, tutte le app e tutti i sistemi operativi mostrano (o almeno dovrebbero) una informativa che delinea quali dati sono raccolti, come sono trattati, da chi e per quanto tempo, così da informare l'utente e richiederne quindi il consenso al trattamento.

L'elaborazione dei dati
I dati, presi separatamente gli uni dagli altri, non hanno praticamente alcun valore: al contrario acquisiscono grandissimo valore se organizzati. Dati grezzi non strutturati vengono, per prima cosa, organizzati: i dati sono prima estratti (dalle varie fonti), sono poi integrati (con le informazioni che riferiscono agli stessi elementi o domini applicativi) quindi vengono analizzati.

Le analisi avvengono tramite algoritmo (una mente umana non riuscirebbe ad elaborare così tanti dati, se non impiegando anni ed anni), che può essere di due tipi: di interrogazione o di apprendimento. Nel primo caso, l'algoritmo fornisce una risposa a precise domande da parte degli utenti, mentre gli algoritmi di apprendimento mirano ed estrarre nuove tesi e nuove conoscenze avvalendosi di tecniche avanzate come l'Intelligenza Artificiale e il machine learning. Gli algoritmi di apprendimento hanno quindi la capacità di evolversi in base all'esperienza acquisita.

Come, in dettaglio, vengano elaborati i dati non è possibile saperlo: gli algoritmi alla base dei big data sono pubblicamente disponibili, ma quelli effettivamente usati dai singoli operatori sono fondamentalmente materia di segreto aziendale non sono condivisi con terzi.

Scopi dei Big Data
Per rendere un pò l'idea del contesto applicativo dei big data, facciamo alcuni esempi di utilizzo in campo economico:

  • efficientare e migliorare processi direzionali, gestionali, operativi;
  • offrire prodotti e servizi innovativi;
  • conoscere dettagliatamente i singoli consumatori;
  • personalizzare prodotti e servizi;
  • miglioramento dell'offerta di nuovi servizi pubblici (monitorando più dettagliatamente il traffico, magari tramite i dati relativi agli spostamenti registrati da smartphone e navigatori, è possibile gestirlo meglio).

A fini di ricerca scientifica affiancano (non possono sostituire) l'apporto del tradizionale metodo scientifico, garantendo miglioramenti nella capacità di profilazione dei dati. Gli algoritmi di intelligenza artificiale possono invece portare un gran contributo avendo la capacità di individuare schemi complessi di relazioni che possono sfuggire facilmente a ricercatori umani.




CONDIVIDI QUESTA PAGINA!