ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Un tribunale del Regno Unito mette in guardia contro gravi sanzioni per gli avvocati che utilizzano false citazioni basate sull'intelligenza artificiale

DiCollins J. OkothCollins J. Okoth
Tempo di lettura: 3 minuti.
Un tribunale del Regno Unito mette in guardia contro gravi sanzioni per gli avvocati che utilizzano false citazioni basate sull'intelligenza artificiale
  • L'Alta Corte d'Inghilterra e Galles ha avvertito gli avvocati che potrebbero incorrere in sanzioni per aver citato casi falsi generati dall'intelligenza artificiale senza verificarne l'accuratezza.
  • La giudice Victoria Sharp ha scritto in una sentenza che lega due casi, affermando che gli strumenti di intelligenza artificiale generativa come ChatGPT non possono condurre ricerche legali affidabili.
  • Sharp e il giudice Jeremy Johnson hanno indirizzato gli avvocati di entrambi i casi ai rispettivi enti di regolamentazione professionale, ma non hanno preso provvedimenti più seri.

L'Alta Corte di Inghilterra e Galles ha messo in guardia gli avvocati dai pericoli derivanti dall'affidarsi a strumenti di intelligenza artificiale come ChatGPT per la ricerca giuridica. La giudice Victoria Sharp ha stabilito che questi strumenti di intelligenza artificiale generativa non sono in grado di condurre ricerche legali affidabili.

Il giudice Sharp ha affermato che gli strumenti di intelligenza artificiale potrebbero fornire risposte apparentemente coerenti e plausibili, ma anche essere del tutto errati. Ha chiarito che, sebbene gli avvocati possano utilizzare l'intelligenza artificiale nelle loro ricerche, hanno l'obbligo professionale di verificarne l'accuratezza facendo riferimento a fonti autorevoli prima di utilizzarla nel loro lavoro professionale.

Le osservazioni del giudice giungono in un contesto di crescente preoccupazione per i casi in cui gli avvocati hanno citato quelle che sembravano essere falsità generate dall'intelligenza artificiale. La sentenza di Dame Sharp ha citato due casi recenti in cui è stato accertato che gli avvocati avevano citato casi falsi generati dall'IA in procedimenti giudiziari. Ha affermato che la sua decisione sarà condivisa con gli ordini professionali del paese, tra cui il Bar Council e la Law Society.

L'avvocato Hussain cita casi inesistenti in un caso da 120 milioni di dollari

L'avvocato Abid Hussain ha citato casi inesistenti in una causa da 120 milioni di dollari (89 milioni di sterline) riguardante una presunta violazione di un accordo di finanziamento con la Qatar National Bank. Hussain ha presentato un fascicolo contenente 45 citazioni, di cui 18 inesistenti, mentre molte altre non contenevano le citazioni a loro attribuite. 

Il cliente, Hamad Al-Haroun, si è scusato per aver involontariamente ingannato la corte con dati falsi provenienti da strumenti di intelligenza artificiale disponibili al pubblico e ha affermato di essere responsabile, non del suo avvocato, Hussain. Sharp ha tuttavia affermato che è "straordinario" che l'avvocato si sia affidato al cliente per l'accuratezza della propria ricerca giuridica, anziché il contrario.

La giudice Sharp, presidentedent King's Bench Division, ha affermato che un uso improprio dell'intelligenza artificiale avrebbe gravi implicazioni per l'amministrazione della giustizia e per la fiducia del pubblico nel sistema giudiziario. Ha aggiunto che gli avvocati che utilizzano impropriamente l'IA potrebbero essere ammoniti pubblicamente e deferiti alle forze dell'ordine. Ha quindi esortato il Consiglio dell'Ordine degli Avvocati e l'Ordine degli Avvocati a valutare con urgenza misure per arginare il problema.

Il giudice ha inoltre chiesto ai responsabili degli studi legali e ai soci amministratori degli avvocati di garantire che tutti gli avvocati comprendano i propri doveri professionali ed etici quando utilizzano l'intelligenza artificiale.

"Le risposte potrebbero contenere affermazionident che sono semplicemente false. Potrebbero citare fonti inesistenti. Potrebbero pretendere di citare passaggi da una fonte autentica che non compaiono in quella fonte."

Giudice Victoria Sharp, Presidentedent King's Bench Division

Ian Jeffery, amministratore delegato della Law Society of England and Wales, ha affermato che la sentenza ha messo a nudo i pericoli dell'uso dell'intelligenza artificiale nel settore legale. Ha aggiunto che gli strumenti di intelligenza artificiale sono sempre più utilizzati a supporto dell'erogazione dei servizi legali. Tuttavia, il rischio reale di risultati errati prodotti dall'intelligenza artificiale generativa impone agli avvocati di controllare, rivedere e garantire l'accuratezza del proprio lavoro.

L'avvocato Forey cita cinque casi falsi nella richiesta di alloggio di un inquilino

L'avvocata Sarah Forey ha citato cinque casi falsi nella causa per inquilini intentata contro il distretto londinese di Haringey. Forey ha negato di aver utilizzato l'intelligenza artificiale, ma Sharp ha affermato che non aveva fornito alla corte una spiegazione coerente dell'accaduto.

Il giudice ha inoltre avvertito che presentare materiale falso come autentico potrebbe essere considerato oltraggio alla corte o, "nei casi più eclatanti", deviare il corso della giustizia. Ha aggiunto che ciò potrebbe comportare gravi sanzioni per gli avvocati che non ottemperano ai propri obblighi professionali.

Sharp ha affermato che Forey ha mostrato una preoccupante mancanza di intuito, aggiungendo che la corte non ha accettato che la mancanza di accesso ai libri di testo o ai servizi di abbonamentotronall'interno delle camere, se questa era la posizione, fornisse qualcosa di più di una mitigazione marginale.

Ha affermato che Forey avrebbe potuto verificare i casi da lei citati consultando il sito web della giurisprudenza degli Archivi Nazionali o consultando la biblioteca giuridica del suo Inn of Court. Sharp ha osservato che Forey deve aver deliberatamente incluso citazioni false o utilizzato l'intelligenza artificiale, nonostante lo avesse negato nella sua dichiarazione testimoniale.

Il mese scorso, il giudice Ritchie ha dichiarato che, citando cinque casi falsi, il comportamento di Forey, allora studente presso la 3 Bolt Court, e degli avvocati dell'Haringey Law Centre di Londra era improprio, irragionevole e negligente. Ha inoltre ordinato a tutti loro di pagare le spese processuali inutili. 

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO