• La piattaforma di wealth planning
  • Non è solo un pacco, è la soluzione giusta
  • banner italpress 720x90

Beccato! Avvocato australiano usa sentenze inventate dall'IA per difendere uomo accusato d'omicidio

 
Beccato! Avvocato australiano usa sentenze inventate dall'IA per difendere uomo accusato d'omicidio
Redazione

Un avvocato australiano di grido è stato costretto ad umilianti scuse con un giudice, dopo che s'è scoperto che le osservazioni, da lui presentate in un processo per omicidio usando l'intelligenza aritificiale, contenevano citazioni false e addirittura sentenze inesistenti.

Beccato! Avvocato australiano usa sentenze inventate dall'IA per difendere uomo accusato d'omicidio

L'avvocato in questione, Rishi Nathwani, che detiene il prestigioso titolo legale di King's Counsel, si è assunto la "piena responsabilità" per aver presentato informazioni errate nel caso di un adolescente accusato di omicidio, secondo i documenti del tribunale.

"Siamo profondamente dispiaciuti e imbarazzati per quello che è successo", ha detto Nathwani al giudice James Elliott, parlando a nome del team di difesa. Gli errori generati dall'intelligenza artificiale hanno causato un ritardo di 24 ore nella risoluzione di un caso che Elliott sperava di concludere prima. Il giudice ha stabilito giovedì che il cliente di Nathwani, un minorenne, non era colpevole di omicidio a causa di disabilità mentale.
"A rischio di eufemismo, il modo in cui questi eventi si sono svolti è insoddisfacente", ha detto Elliott agli avvocati.

"La capacità del tribunale di fare affidamento sull'accuratezza delle osservazioni presentate dai consulenti è fondamentale per la corretta amministrazione della giustizia", ha aggiunto il magistrato.
Le false presentazioni includevano citazioni inventate da un discorso di un parlamentare e citazioni di casi inesistenti, attribuiti alla Corte Suprema.

Gli errori sono stati scoperti dai collaboratori di Elliott, che non sono riusciti a trovare i casi e hanno chiesto agli avvocati della difesa di fornirne copie dei precedenti citati. Richieste che hanno costretto gli avvocati del collegio di difesa ad ammettere che le citazioni "non esistono" e che la presentazione conteneva "citazioni fittizie".

Gli avvocati hanno spiegato di aver verificato che le citazioni iniziali fossero accurate e di aver erroneamente supposto che anche le altre sarebbero state corrette. Le osservazioni sono state inviate anche al procuratore Daniel Porceddu, che non ne ha verificato l'accuratezza.

Il giudice ha osservato che l'anno scorso la Corte Suprema ha pubblicato le linee guida su come gli avvocati utilizzano l'intelligenza artificiale. "Non è accettabile che l'intelligenza artificiale venga utilizzata a meno che il prodotto di tale uso non sia verificato in modo indipendente e approfondito", ha detto Elliott.

Comunque, dagli atti del tribunale non si identifica il sistema di intelligenza artificiale generativa che è stato utilizzato dagli avvocati. In un caso simile negli Stati Uniti nel 2023, un giudice federale ha imposto multe di 5.000 dollari a due avvocati e uno studio legale dopo che ChatGPT è stato incolpato per la presentazione di ricerche legali fittizie in una richiesta di risarcimento per danni aerei.

Altre sentenze giudiziarie fittizie inventate dall'intelligenza artificiale sono state citate nei documenti legali depositati dagli avvocati di Michael Cohen, un ex avvocato personale del presidente degli Stati Uniti Donald Trump. Cohen si è preso la colpa, dicendo che non si rendeva conto che lo strumento di Google che stava utilizzando per la ricerca legale era anche capace delle cosiddette ''allucinazioni'' dell'intelligenza artificiale.

Il giudice dell'Alta Corte britannica Victoria Sharp ha avvertito a giugno che fornire materiale falso come se fosse autentico potrebbe essere considerato oltraggio alla corte o, nei "casi più eclatanti", ''pervertire il corso della giustizia'', che nell'ordinamento del Regno Unito comporta la pena massima di ergastolo.