GUARDA QUIhttps://www.accademiaitalianaprivacy.it/areaprivata/foto/789/01.jpg

Dettaglio news
Intelligenza artificiale: il Parlamento UE fa un passo avanti nel percorso che porterà all' AI ACT (sempre più vicino)


giovedì 15 giugno 2023



Intelligenza artificiale: il Parlamento UE fa un passo avanti nel percorso che porterà all'AI ACT, il Regolamento che introdurrà limitazioni e obblighi per coloro che impiegano sistemi di AI.

 

AI ACT: i contenuti della regolamento che limita l'impiego dell'Intelligenza Artificiale

Si va dal divieto di utilizzo di sistemi di AI per la sorveglianza biometrica nei luoghi pubblici a quello per il riconoscimento delle emozioni, passando per il NO alla polizia predittiva. Questi sono solo alcuni delle previsioni dell'AI ACT, il nuovo regolamento europeo sull'Intelligenza Artificiale. Approvato ad ampissima maggioranza, l'AI Act è stato votato il 14 Giugno e introduce limiti e obblighi per garantire che l'impiego dei sistemi AI in Europa sia "sicuro, trasparente, tracciabile, non discriminatorio e green".

Il perno centrale del nuovo regolamento è la volontà del Parlamento europeo di garantire che i sistemi di AI siano supervisionati dalle persone, piuttosto che reggersi sulla totale automazione: solo così saranno prevenibili esiti dannosi. Molta attenzione anche al contrasto all'uso dei deep fake e alla prevenzione della disinformazione.

"Il Parlamento europeo diventa la prima Camera al mondo a votare un regolamento completo sull’AI. Il voto di oggi dimostra che possiamo conciliare fiducia e innovazione” ha dichiarato Thierry Breton, Commissario europeo per il mercato interno e i servizi. Ora iniziano i negozioati con il Consiglio europeo per arrivare alla versione finale della norma che, almeno nelle volontà dei suoi relatori, dovrebbe arrivare ad accordo definitivo entro la fine dell'anno.

 

AI ACT: l'approccio basato su rischio

La Commissione europea aveva già proposto un quadro normativo sull'AI nell'Aprile del 2021. Questo quadro tratteggia una classificazione dei sistemi di intelligenza artificiale in base al rischio che possono costituire per gli utenti. L'approvazione dell'AI ACT di qualche giorno fa procede in questo solco, stabilendo obblighi sia per i fornitori che per coloro che impiegano sistemi AI.

Tolti i dettagli che devono ancora essere definiti, i sistemi AI saranno analizzati e classificati secondo tre livelli di rischio:

  1. rischio inaccettabile:
    i sistemi AI considerati una minaccia per le persone saranno vietati. In "rischio inaccettabile" rientrano quei sistemi che danneggiano la salute, la sicurezza, i diritti delle persone, ma anche i sistemi per manipolare / influenzare elezioni ed elettori. Vi rientrano i sistemi di identificazione biometrica da remoto real-time come il riconoscimento facciale, ma anche sistemi che classificano le persone in base a status economico, comportamento, caratteristiche peculiari (social scoring). Tra i sistemi capaci di manipolazione cognitivo-comportamentale ad alto rischio anche l'uso dei sistemi AI eni giocattoli per bambini.

  2. rischio alto:
    i sistemi a rischio alto sono quelli che possono mettere a repentaglio la sicurezza o i diritti fondamentali.
    Sono divisi in due categorie:

    • sistemi AI impiegato in prodotti soggettio alla legislazione UE di sicurezza dei prodotti. Vi rientrano dai giocattoli agli ascensori, dalle automobili ai dispositivi medici così come i sistemi AI di gestione aerea;
    • sistemi AI che rientrano in 8 specifiche aree:
      - Occupazione, gestione dei lavoratori e accesso al lavoro autonomo;
      - Applicazione della legge;
      - Accesso e fruizione dei servizi privati essenziali e dei servizi e benefici pubblici;
      - Gestione e funzionamento delle infrastrutture critiche;
      - Identificazione biometrica e categorizzazione delle persone fisiche;
      - Migrazione, asilo e gestione dei controlli alle frontiere;
      - Assistenza nell'interpretazione giuridica e nell'applicazione della legge;
      - Istruzione e formazione professionale. 

  3. rischio limitato:
    i sistemi AI che comportano nessuno o comunque rischi limitati dovranno comunque sottostare ad una serie di requisiti minimi. A partire dalla trasparenza, dato che resta in vigore quanto previsto a livello di principio dal GDPR: occorre mettere in condizione l'utente di prendere decisioni informate e consapevoli. Verrà molto probabilmente previsto l'obbligo di avvisare gli utenti quando, utilizzando applicazioni, si trovano ad interagire con intelligenze artificiali. A questo obbligo di trasparenza e informativo saranno quasi sicuramente sottoposti quei sistemi per la generazione / manipolazione di immagini, audio e video come i deepfake.

 

E ChatGPT?

Visto che ChatGPT è ormai tra i più famosi sistemi di intelligenza artificiale al mondo e molti di noi ne conoscono le funzioni o le hanno sperimentate "per curiosità", ecco, ChatGPT rientra nel novero delle intelligenze artificiali generative. Come tale ChatGPT dovrà rispettare i requisiti di trasparenza, a partire dalla pubblicazione di una dichiarazione del tipo "questi contenuti sono stati generati dall'AI". La volontà è quella di poter distinguere i deepfake da immagini e video reali.


L'iter di approvazione: quanto manca all'entrata ufficiale in vigore?

Il testo approvato dal Parlamento Europeo il 14 Giugno è tecnicamente definito "posizione negoziale". Sulla base di questo testo inizieranno a stretto giro i negoziati inter istituzionali con il Consiglio europeo. Il Regolamento diverrà definitivo al termine di tali negoziati: l'obiettivo è arrivare alla versione finale del Regolamento entro la fine dell'anno.

Qui il comunicato stampa del Parlamento Europeo 
Qui il testo adottato dal Parlamento Europeo  




CONDIVIDI QUESTA PAGINA!