Sentenze inventate da ChatGPT? «Era solo questione di tempo. E infatti, è successo anche da noi». Così esordisce Marco Camisani Calzolari, divulgatore cyberumanista e docente, in un post che, in poche righe, racchiude l’essenza di una questione che, in realtà, riguarda non solo il diritto, ma anche il giornalismo e l’informazione. Parliamo dell’uso superficiale dell’intelligenza artificiale generativa.
Le sentenze inventate da ChatGPT
Il caso cui fa riferimento è avvenuto a Firenze, dove per la prima volta in Italia un Tribunale si è trovato a valutare il contenuto di una memoria difensiva contenente sentenze… mai esistite. Letteralmente generate da ChatGPT, e mai verificate. Una cosiddetta «allucinazione» dell’IA, cioè un contenuto falso, creato in modo plausibile, ma privo di riscontro nella realtà.
A dare notizia di questa vicenda, lo scorso giovedì 28 marzo, è stata l’Agi: leggi qui l’articolo.
Non è il futuro. È il presente.
È qui che il ragionamento di Camisani Calzolari diventa cruciale:
«L’IA non è una bacchetta magica. È uno strumento. E chi lo usa, ha il dovere di sapere come funziona».
Parole che dovrebbero risuonare con forza anche nelle redazioni giornalistiche. Perché se oggi si discute di avvocati che si possono ritrovare a citare sentenze false, domani potremmo leggere articoli che riportano dati, dichiarazioni o contesti generati dall’AI senza alcun riscontro reale.
L’intelligenza artificiale sta già entrando nei flussi di lavoro dell’informazione. Si usa per analizzare documenti, tradurre testi, produrre bozze, generare immagini. Ma la responsabilità resta tutta umana.
Serve una deontologia aggiornata
L’episodio di Firenze richiama un’urgenza che su questo giornale è stato più volte sottolineato: serve formazione, serve consapevolezza. Perché l’IA può essere una risorsa enorme, ma senza cultura e controllo diventa un rischio silenzioso. E i primi a doverlo comprendere – prima ancora dei lettori e degli algoritmi – sono proprio coloro che con la parola scritta costruiscono ogni giorno l’opinione pubblica.