GUARDA QUIhttps://accademiaitalianaprivacy.it/areaprivata/foto/2189/01.jpg
giovedì 5 marzo 2026
"non è la granata, è il manico" di Alessandro Papini - Presidente AIP

C'è una critica che circola con crescente insistenza negli ambienti legali e professionali italiani. La si sente nei convegni, la si legge nei post LinkedIn di avvocati e consulenti, la si trova persino in alcune sentenze di merito: "L'intelligenza artificiale inventa sentenze, cita casi inesistenti, allucinata e inaffidabile."
È una critica che contiene un granello di verità e un oceano di malafede intellettuale.
Perché sì, l'AI può produrre risposte imprecise, può citare giurisprudenza inesistente, può costruire ragionamenti apparentemente solidi su fondamenta di sabbia. È un fenomeno reale, documentato, che ha già causato danni concreti; su tutti, il celebre caso dell'avvocato americano che ha depositato in tribunale sei precedenti giurisprudenziali inventati di sana pianta da ChatGPT, senza verificarne l'esistenza.
Ma quello che i critici sistematicamente omettono di dire è la parte più importante della storia: quell'avvocato aveva chiesto all'AI di trovare sentenze favorevoli alla sua tesi, senza alcuna istruzione di verifica, senza fonti, senza vincoli. Aveva usato uno strumento potentissimo come se fosse Google, aspettandosi risultati certi da uno strumento che per sua natura ragiona in termini probabilistici.
Non è colpa della granata. È colpa di chi non sa come tenerla in mano.
I modelli linguistici di nuova generazione non cercano informazioni. Non hanno un motore di ricerca interno. Non consultano banche dati giuridiche in tempo reale. Quello che fanno, e lo fanno in modo straordinario, è ragionare sul linguaggio, costruire connessioni tra concetti, sintetizzare, analizzare, argomentare.
Quando chiedi a un modello AI "trovami sentenze sulla responsabilità del datore di lavoro in caso di infortunio" senza ulteriori istruzioni, stai chiedendo a uno strumento probabilistico di produrre testo coerente con quella richiesta. E lui lo fa producendo testo che assomiglia a citazioni giurisprudenziali reali, perché ha visto milioni di documenti legali durante il suo addestramento.
Non sta mentendo. Sta facendo esattamente quello che gli hai chiesto: produrre testo pertinente. Il problema è che tu volevi fatti verificati, e lui ti ha dato probabilità statisticamente coerenti.
La differenza è enorme. Ed è tutta nel prompt.
Un professionista che usa l'AI con un prompt generico e superficiale ottiene risposte generiche e superficiali. Questa non è una critica all'AI — è una legge fisica della comunicazione. Vale per i collaboratori umani, vale per i motori di ricerca, vale a maggior ragione per i modelli linguistici.
La differenza tra un prompt mediocre e un prompt professionale è la differenza tra uno strumento inutile e uno strumento trasformativo.
Un prompt mediocre: "Dimmi cosa dice la giurisprudenza sul trattamento dei dati sanitari."
Un prompt professionale: "Analizza il quadro normativo italiano sul trattamento dei dati sanitari ai sensi del GDPR e del D.Lgs. 196/2003 come modificato dal D.Lgs. 101/2018. Per ogni affermazione che fai, indica se si tratta di norma positiva citando l'articolo specifico, di orientamento del Garante indicando il provvedimento, o di tua elaborazione interpretativa. Segnala esplicitamente le aree di incertezza o contrasto interpretativo. Non citare giurisprudenza a meno che tu non sia certo della sua esistenza — in caso di dubbio, indica che la verifica va effettuata su banche dati ufficiali."
Il secondo prompt non produce allucinazioni. Produce un'analisi strutturata, trasparente sui propri limiti, verificabile. Produce esattamente quello di cui un professionista ha bisogno come punto di partenza, non come punto di arrivo. Perché questo è il secondo punto che i critici sistematicamente ignorano: l'AI non è il prodotto finale. È il collaboratore con cui ragioni.
C'è qualcosa di profondamente sbagliato nel modo in cui una parte della classe professionale italiana usa le allucinazioni dell'AI come argomento per liquidare l'intera tecnologia.
Permettetemi una provocazione diretta, rivolta a chi usa le allucinazioni dell'AI come scudo culturale.
Quando un avvocato sentenzia che "l'AI è inaffidabile per il diritto" sulla base di un uso superficiale e non professionale della tecnologia, sta facendo esattamente quello che farei io, informatico, esperto di privacy e sicurezza se mi mettessi una toga entrassi in un'aula di tribunale e cominciassi a difendere un imputato citando articoli di codice che ho letto su Wikipedia la settimana prima.
Sarebbe pericoloso. Sarebbe irresponsabile. E sarebbe, soprattutto, una dimostrazione di incompetenza mascherata da coraggio.
L'AI non si valuta usandola male e poi criticando i risultati. Si valuta imparando a usarla bene con la stessa serietà con cui un avvocato studia anni prima di mettere piede in un'aula.
Non sto dicendo che l'AI sia infallibile. Non lo è, e non lo sarà mai nel senso in cui una banca dati giuridica verificata è infallibile. Sto dicendo che un uso professionale dell'AI prevede:
Le allucinazioni dell'AI sono reali. Sono anche, nella stragrande maggioranza dei casi, il risultato diretto di un uso superficiale e non professionale dello strumento.
L'AI non è una fonte. È un interlocutore straordinariamente capace, che ragiona meglio di qualsiasi collaboratore umano su grandi volumi di testo a condizione che tu sappia come parlargli.
Chi non lo sa, e sceglie di non impararlo, ha tutto il diritto di non usarla. Ma non ha il diritto di presentare la propria ignoranza come una critica tecnologica.
Il problema, quasi sempre, non è la granata. È il manico.
E come direbbe il grande Ettore Borzacchini:
"Dammi retta, palle!"
mercoledì 29 aprile 2026
Leggi tutto...
CONDIVIDI QUESTA PAGINA!