GUARDA QUIhttps://accademiaitalianaprivacy.it/areaprivata/foto/1954/01.jpg
lunedì 7 aprile 2025
Di Avv. Gianni Dell'Aiuto
“Abbiamo appena incontrato un’intelligenza aliena, qui sulla Terra. Non sappiamo quasi nulla di essa, se non che potrebbe distruggere la nostra civiltà.”
Non è un frase contenuta in un libro di di fantascienza, ma è stata scritta dalla penna lucidissima di Yuval Noah Harari, storico e filosofo israeliano autore di brillanti testi, tra cui spicca: Sapiens. Da animali a Dei. È una frase tagliente come un rasoio, che ha il sapore di quelle verità che ci mettono a disagio proprio perché sono così semplici, così chiare, da non poter essere ignorate.
Da quando la abbiamo a disposizione, abbiamo giocato con l’intelligenza artificiale come se fosse un balocco sofisticato, un motore per le ricerche, un supporto alla scrittura, una comodità da integrare nei flussi aziendali. Ma oggi l’IA è qualcosa di più. Non è più uno strumento: è un interlocutore. Non si limita a reagire: inizia a proporre, a convincere, a sedurre.
Potremmo citare i casi di giornalisti che la usano per scrivere articoli e giudici che vi ricorrono per le sentenze o qualcuno per inventare il CV perfetto, ma possiamo già citare chi ne fa un uso distorto giungendo a fidanzarsi con la persona ideale creata artificialmente.
Potrebbe interessarti > L'intelligenza artificiale: sfide etiche
Ma Harari va oltre e ci avverte: questa tecnologia non uccide corpi, uccide verità. Sta imparando a scrivere testi sacri, a creare ideologie, a instaurare legami emotivi con milioni di persone. Sta riscrivendo, con una calma algoritmica, le fondamenta culturali della società. E lo fa mentre noi restiamo incantati davanti allo schermo, come i prigionieri di Platone nella sua famosa caverna. O forse – peggio ancora – mentre firmiamo contratti, approviamo budget e pianifichiamo campagne.
Potrebbe interessarti > Data ethics: una nuova frontiera ancora sconosciuta
Così come quando giunsero i primi cellulari connessi a Internet ci prendemmo le comodità senza comprendere le implicazioni negative, oggi corriamo il rischio di delegare ad un sistema (gestito da chi?) anche il formarsi del nostro pensiero.
E sono certo che molte aziende già la utilizzano in maniera indiscriminata integrandola nei loro processi non solo gestionali ma anche nel marketing. E l’Uomo?
Certo, qualcosa si muove. L’Unione Europea, con l’AI Act, ha tracciato una prima linea, un primo tentativo di normare una tecnologia che corre più veloce dei legislatori stessi. È un buon inizio, ma è sufficiente? Davvero possiamo pensare che basti un regolamento continentale per fronteggiare un’intelligenza che, per sua natura, non conosce confini, giurisdizioni, patrie?
Approfondisci > La portata dell’AI Act
Qui non si tratta solo di Stati, ma di responsabilità. Di consapevolezza.
Le imprese – soprattutto quelle che sviluppano, integrano o distribuiscono soluzioni di IA – non possono più nascondersi dietro la scusa dell’assenza di norme. Devono diventare adulte. Applicare codici di autodisciplina, formare le persone, interrogarsi sugli effetti collaterali prima ancora che sui margini di profitto. Perché un algoritmo che manipola, anche senza volerlo, è già un’arma.
Stiamo davvero giocando con una mente aliena che non conosce l’etica ma conosce i dati. E solo i dati che qualcuno decide di trasferirgli. E gli dice come usarli.
È un qualcosa che non ha coscienza ma sa come simulare la nostra, che non si pone troppe domande si limita a fornire risposte gradite.
Abbiamo la certezza che non ci odia; non è buona o cattiva: è potente ea può trascinarci in un mondo in cui non saremo più noi a scrivere le storie. Saremo le storie.
E allora la domanda, oggi, non è se l’IA debba essere regolata. È da chi. E soprattutto: quando, se non adesso.
giovedì 3 aprile 2025
CONDIVIDI QUESTA PAGINA!