L'Alta Corte d'Inghilterra e Galles ha avvertito gli avvocati dei pericoli di fare affidamento su strumenti di intelligenza artificiale come Chatgpt per la ricerca legale. Il giudice Victoria Sharp ha stabilito che questi strumenti AI generativi non potevano condurre ricerche legali affidabili.
Il giudice Sharp ha affermato che gli strumenti di intelligenza artificiale potrebbero fornire risposte apparentemente coerenti e plausibili, ma anche completamente errati. Ha chiarito che mentre gli avvocati possono usare l'IA nella loro ricerca, hanno l'obbligo professionale di verificare l'accuratezza di tale ricerca in riferimento a fonti autorevoli prima di usarla nel loro lavoro professionale.
Le osservazioni del giudice sono arrivate tra le crescenti preoccupazioni per i casi in cui gli avvocati hanno citato quelle che sembravano falsità generate ai . La decisione di Dame Sharp ha citato due recenti casi in cui è stato scoperto che gli avvocati hanno citato casi falsi generati dall'IA nei procedimenti giudiziari. Ha detto che la sua sentenza sarà condivisa con organismi professionali nel paese, tra cui il Consiglio degli avvocati e la società legale.
L'avvocato Hussain cita casi inesistenti in caso di $ 120 milioni
Avvocati, attenzione: i pericoli dell'uso dell'IA per redigere invii senza verifica
Nel caso di Al-Haroun, il tribunale ha scoperto 45 citazioni sbalorditive che erano inesistenti o contenevano citazioni imprecise. Incredibilmente, queste false citazioni sono state originariamente generate ... pic.twitter.com/CBGNY1Z7X1
- Lawpoint Uganda (@lawpointuganda) 7 giugno 2025
L'avvocato Abid Hussain ha citato casi inesistenti in una causa da $ 120 milioni (£ 89 milioni) in merito a una presunta violazione di un accordo di finanziamento con il Qatar National Bank. Hussain ha presentato un deposito con 45 citazioni, di cui 18 non esistevano, mentre molti altri non contenevano le citazioni che vi erano attribuite.
Il cliente, Hamad Al-Haroun, si è scusato per aver fuorviato involontariamente il tribunale con falsi dati da strumenti di intelligenza artificiale disponibili al pubblico e ha dichiarato di essere responsabile piuttosto che del suo avvocato, Hussain. Ma Sharp ha affermato che era "straordinario" che l'avvocato si affidasse al cliente per l'accuratezza della loro ricerca legale piuttosto che il contrario.
Il giudice Sharp, la dent della divisione in panchina del re, ha affermato che ci sono state serie implicazioni per l'amministrazione della giustizia e della fiducia del pubblico nel sistema giudiziario se l'IA è stata utilizzata in modo improprio. Ha aggiunto che gli avvocati che utilizzano l'IA potrebbero affrontare l'ammonimento pubblico e il rinvio alla polizia. Ha invitato il Consiglio degli avvocati e la Law Society a prendere in considerazione le misure per frenare il problema "per urgenza".
Il giudice ha anche chiesto ai capi delle camere degli avvocati e ai dirigenti dei partner degli avvocati di garantire che tutti gli avvocati abbiano compreso i loro doveri professionali ed etici quando usano l'IA.
"Le risposte possono rendere le asserzioni dident che sono semplicemente false. Possono citare fonti che non esistono. Possono pretendere di citare i passaggi di una fonte autentica che non appaiono in quella fonte."
- Giudice Victoria Sharp , presidenza dent divisione della panchina del re
Ian Jeffery, amministratore delegato della Law Society of England and Wales, ha affermato che la sentenza ha messo a nudo i pericoli dell'uso dell'IA nel lavoro legale. Ha aggiunto che gli strumenti di intelligenza artificiale sono stati sempre più utilizzati per supportare l'erogazione del servizio legale. Tuttavia, il rischio reale di output errati prodotti dall'intelligenza artificiale generalmente richiede agli avvocati di controllare, rivedere e garantire l'accuratezza del loro lavoro.
L'avvocato Forey cita cinque casi falsi nella richiesta di abitazione di un inquilino
L'avvocato Sarah Forey ha citato cinque casi falsi nella richiesta di alloggio di un inquilino contro il distretto di Londra di Haringey. Forey ha negato di usare l'IA , ma Sharp ha affermato di non aver fornito alla corte una spiegazione coerente per ciò che è accaduto.
Il giudice ha anche avvertito che offrire un falso materiale come genuino potrebbe essere considerato disprezzo della corte o, nei "casi più eclatanti", pervertire il corso della giustizia. Ha aggiunto che ciò potrebbe portare a gravi sanzioni per gli avvocati che non hanno rispettato i loro obblighi professionali.
Sharp ha detto che Forey ha mostrato una preoccupazione preoccupante di intuizione, aggiungendo che il tribunale non ha accettato che una mancanza di accesso ai libri di testo o servizi di abbonamento electronIC all'interno di Camere, se quella, non ha fornito qualcosa di più della mitigazione marginale.
Ha affermato che Forey avrebbe potuto controllare i casi che ha citato per la ricerca del sito Web di Caselaw National Archives o andando alla biblioteca legale della sua locanda di corte. Sharp ha osservato che Forey deve aver deliberatamente incluso citazioni false o usato AI nonostante la neghi nella sua dichiarazione dei testimoni.
Il mese scorso, il giudice Ritchie ha affermato che, nel citare cinque casi falsi, il comportamento di Forey, poi un allievo a 3 Bolt Court e gli avvocati del Haringey Law Center di Londra erano impropri, irragionevoli e negligenti. Ha anche ordinato tutti loro di pagare i costi sprecati.
Cryptolitan Academy: stanco delle oscillazioni del mercato? Scopri come DeFi può aiutarti a costruire un reddito passivo costante. Registrati ora