El Tribunal Superior de Inglaterra y Gales advirtió a los abogados sobre los peligros de confiar en herramientas de IA como ChatGPT para la investigación jurídica. La jueza Victoria Sharp dictaminó que estas herramientas de IA generativa no podían realizar investigaciones jurídicas fiables.
La jueza Sharp afirmó que las herramientas de IA podían proporcionar respuestas aparentemente coherentes y plausibles, pero también ser totalmente incorrectas. Aclaró que, si bien los abogados pueden utilizar la IA en sus investigaciones, tienen la obligación profesional de comprobar la exactitud de dichas investigaciones consultando fuentes fidedignas antes de utilizarlas en su trabajo profesional.
Las declaraciones de la jueza se produjeron en medio de la creciente preocupación por los casos en que los abogados citaron lo que parecían ser falsedades generadas por IA . La decisión de Dame Sharp citó dos casos recientes en los que se descubrió que abogados citaron casos falsos generados por IA en procedimientos judiciales. Aseguró que su fallo se compartirá con los organismos profesionales del país, incluidos el Colegio de Abogados y el Colegio de Abogados.
El abogado Hussain cita casos inexistentes en un caso de 120 millones de dólares
Abogados, tengan cuidado: Los peligros de usar IA para redactar presentaciones sin verificación
En el caso Al-Haroun, el tribunal descubrió la asombrosa cantidad de 45 citas inexistentes o que contenían citas inexactas. Sorprendentemente, estas citas falsas fueron generadas originalmente… pic.twitter.com/CbgNy1z7X1
– Lawpoint Uganda (@Lawpointuganda) 7 de junio de 2025
El abogado Abid Hussain citó casos inexistentes en una demanda de 120 millones de dólares (89 millones de libras esterlinas) por el supuesto incumplimiento de un acuerdo de financiación con el Banco Nacional de Qatar. Hussain presentó una demanda con 45 citaciones, de las cuales 18 eran inexistentes, mientras que muchas otras no contenían las cotizaciones que se les atribuían.
El cliente, Hamad Al-Haroun, se disculpó por engañar involuntariamente al tribunal con datos falsos obtenidos de herramientas de inteligencia artificial disponibles públicamente y afirmó ser responsable, no su abogado, Hussain. Sin embargo, Sharp calificó de "extraordinario" que el abogado confiara en el cliente para la precisión de su investigación jurídica, y no al revés.
La jueza Sharp, presidenta dent la Sala del Tribunal del Rey, afirmó que el uso indebido de la IA tendría graves consecuencias para la administración de justicia y la confianza pública en el sistema judicial. Añadió que los abogados que hagan un uso indebido de la IA podrían enfrentarse a una amonestación pública y ser remitidos a la policía. Instó al Colegio de Abogados y al Colegio de Abogados a considerar medidas urgentes para frenar el problema.
El juez también pidió a los directores de los colegios de abogados y a los socios gerentes de los abogados que se aseguraran de que todos los abogados comprendieran sus deberes profesionales y éticos al utilizar IA.
Las respuestas pueden contener afirmacionesdent que son simplemente falsas. Pueden citar fuentes inexistentes. Pueden pretender citar pasajes de una fuente genuina que no aparecen en ella
– Jueza Victoria Sharp , Presidenta dent la División del Tribunal del Rey
Ian Jeffery, director ejecutivo del Colegio de Abogados de Inglaterra y Gales, afirmó que el fallo puso de manifiesto los peligros del uso de la IA en el ámbito jurídico. Añadió que las herramientas de IA se utilizan cada vez más para apoyar la prestación de servicios jurídicos. Sin embargo, el riesgo real de que la IA generativa genere resultados incorrectos exige que los abogados verifiquen, revisen y garanticen la precisión de su trabajo.
El abogado Forey cita cinco casos falsos en la reclamación de vivienda de un inquilino
La abogada Sarah Forey citó cinco casos falsos en la demanda de vivienda de un inquilino contra el municipio londinense de Haringey. Forey negó haber utilizado inteligencia artificial , pero Sharp afirmó que no había proporcionado al tribunal una explicación coherente de lo sucedido.
La jueza también advirtió que presentar material falso como si fuera genuino podría considerarse desacato al tribunal o, en los casos más flagrantes, pervertir el curso de la justicia. Añadió que esto podría conllevar severas sanciones para los abogados que incumplan con sus obligaciones profesionales.
Sharp dijo que Forey mostró una preocupante falta de perspicacia y agregó que el tribunal no aceptaba que la falta de acceso a libros de texto o servicios de suscripcióntrondentro de las cámaras, si esa era la situación, proporcionara algo más que una mitigación marginal.
Afirmó que Forey podría haber comprobado los casos que citó consultando el sitio web de jurisprudencia de los Archivos Nacionales o la biblioteca jurídica de su Colegio de Abogados. Sharp observó que Forey debió haber incluido deliberadamente citas falsas o utilizado inteligencia artificial, a pesar de haberlo negado en su declaración testimonial.
El mes pasado, el juez Ritchie declaró , al citar cinco casos falsos, que la conducta de Forey, entonces alumno de Bolt Court 3, y de los abogados del Haringey Law Centre de Londres fue impropia, irrazonable y negligente. Además, les ordenó a todos pagar las costas procesales.

