Ingannati da ChatGPT, giudici accusati di averlo usato
Un’inquietante vicenda sta suscitando scalpore nel panorama giuridico portoghese: tre giudici del Tribunal da Relação di Lisbona sono accusati di aver redatto una sentenza con l’ausilio dell’intelligenza artificiale, nello specifico ChatGPT.
Questo caso coinvolge l’ex dirigente del PSD, Helena Lopes da Costa, e ha messo in evidenza preoccupazioni riguardo l’uso improprio delle nuove tecnologie nel sistema legale, sollevando importanti interrogativi sulla qualità e sull’integrità delle decisioni giudiziarie.
La denuncia degli avvocati
Gli avvocati di Helena Lopes da Costa, Rui Patrício e Catarina Martins Morão, sono stati i primi a sollevare il sospetto che la sentenza fosse stata generata, almeno in parte, da un’intelligenza artificiale.
La denuncia riguarda un acórdão, ovvero una sentenza collegiale, che i legali ritengono contenga elementi stranieri rispetto alla prassi giuridica. In particolare, si fa riferimento all’uso di un linguaggio impreciso, espressioni non consuete nel contesto delle decisioni legali e, soprattutto, citazioni di leggi e articoli che non esistono.
Gli avvocati, infatti, hanno dichiarato di non aver mai visto un testo giuridico contenente riferimenti a leggi inesistenti o che citasse giurisprudenza che non è mai stata emessa dal Supremo Tribunal de Justiça.
I fatti e il coinvolgimento dell’AI
Il caso in questione riguarda un processo legale che vedeva coinvolti Helena Lopes da Costa, la Santa Casa da Misericórdia di Lisbona e il politico socialista Davide Amado, accusati di abusi di potere e partecipazione economica in affari. La decisione di portare il caso a giudizio era stata presa dal giudice di istruzione, ma il 23 ottobre 2024 il Tribunal da Relação di Lisbona ha invertito la decisione, pubblicando una nuova sentenza.
Quello che ha suscitato i sospetti degli avvocati è stato l’analisi della sentenza stessa. Sebbene gli argomenti giuridici trattati nel caso fossero rilevanti, i giudici non hanno mai analizzato concretamente la condotta degli imputati. Al contrario, si sono limitati a fare osservazioni generiche sui crimini in questione, senza entrare nel dettaglio delle specifiche accuse. Questo approccio generico ha sollevato dubbi sulla paternità del testo.
Inoltre, gli avvocati hanno sottolineato l’uso di espressioni atipiche come “dottrina penale” e riferimenti vaghi al “Codice Penale Portoghese” o alla “giurisprudenza del Supremo Tribunal de Justiça”, che non sono tipici delle sentenze giuridiche. Questi elementi, uniti alla presenza di citazioni di articoli inesistenti, hanno spinto i difensori a chiedere l’annullamento dell’acórdão.
Il sospetto dell’uso di ChatGPT
Gli avvocati hanno avanzato l’ipotesi che il testo della sentenza possa essere stato redatto utilizzando ChatGPT, l’algoritmo di intelligenza artificiale sviluppato da OpenAI. Il sospetto nasce dal fatto che, sebbene l’AI possa generare rapidamente testi in linguaggio naturale, non è ancora in grado di produrre contenuti giuridici accurati o di comprendere le complessità del diritto in modo adeguato.
La denuncia degli avvocati ha attirato l’attenzione dei media, in particolare del Correio da Manhã, che ha messo in evidenza le discrepanze nel testo della sentenza e ha sollevato la questione dell’uso di intelligenza artificiale nelle aule di giustizia. Nonostante l’AI stia diventando sempre più comune in vari settori, la sua applicazione in ambito giuridico è un tema controverso. L’uso di ChatGPT per redigere sentenze solleva interrogativi sulla possibilità che un’intelligenza artificiale possa sostituirsi al giudice umano, con tutte le implicazioni etiche e legali che ne derivano.
Reazioni e implicazioni per il sistema giudiziario
Le accuse mosse agli giudici del Tribunal da Relação di Lisbona hanno suscitato reazioni contrastanti. Se da un lato alcuni commentatori ritengono che l’uso dell’AI possa contribuire a snellire il lavoro dei tribunali e accelerare i processi, dall’altro molti sollevano preoccupazioni sulla qualità e sull’affidabilità delle decisioni legali prodotte da un algoritmo. I giudici coinvolti nel caso hanno finora mantenuto il silenzio riguardo alle accuse, ma la vicenda ha suscitato un ampio dibattito sulla necessità di regolare l’uso dell’intelligenza artificiale nel settore pubblico.
Se dovesse essere confermato l’uso di ChatGPT nella redazione della sentenza, potrebbe esserci un impatto significativo sulla fiducia del pubblico nel sistema giudiziario. Le sentenze giuridiche non solo devono essere corrette dal punto di vista legale, ma devono anche garantire la trasparenza e la comprensibilità, e non c’è spazio per errori o imprecisioni in un campo tanto delicato. Il rischio è che la giustizia venga influenzata da strumenti tecnologici che, pur essendo potenti, non sono ancora in grado di cogliere tutte le sfumature necessarie a una valutazione equa e giusta.
Il caso solleva interrogativi importanti su come la tecnologia stia influenzando il diritto e su quali debbano essere i limiti dell’automazione nelle decisioni giuridiche. Mentre l’intelligenza artificiale promette di migliorare l’efficienza, è fondamentale che il sistema legale mantenga il controllo umano, garantendo che le decisioni siano prese da professionisti competenti e non da algoritmi.