Your bank is using your money. You’re getting the scraps.WATCH FREE

Jueces federales de EE.UU. admiten haber usado IA en órdenes judiciales "plagadas de errores"

En esta publicación:

  • Dos jueces federales de Estados Unidos admitieron que su personal utilizó herramientas de inteligencia artificial como ChatGPT y Perplexity para redactar fallos que luego fuerontracpor errores fácticos y legales.
  • Desde entonces, ambos jueces han implementado procedimientos de revisión más estrictos y han redactado políticas sobre el uso de IA dentro de sus salas.
  • El senador Grassley instó al poder judicial a establecer directrices de IA mástronmientras los tribunales y los académicos legales debaten reglas para la transparencia en los fallos con asistencia de IA.

Dos jueces federales de Estados Unidos admitieron que el personal de sus despachos recurrió a inteligencia artificial para redactar fallos judiciales y que el experimento salió terriblemente mal.

En un par de cartas sinceras publicadas el jueves por el senador Chuck Grassley, presidente del Comité Judicial del Senado, los jueces Henry T. Wingate, de Misisipi, y Julien Xavier Neals, de Nueva Jersey, afirmaron que se utilizaron herramientas de inteligencia artificial en la preparación de órdenes judiciales que posteriormente se descubrieron plagadas de errores de hecho y de derecho. Ambas decisiones han sido trac .

Grassley, quien había exigido explicaciones, dijo: “Cada juez federal, y el poder judicial como institución, tienen la obligación de garantizar que el uso de IA generativa no viole los derechos de los litigantes ni impida un trato justo ante la ley” 

Los errores del personal exponen los límites de la IA en los tribunales

En su carta , el juez Neals del Distrito de Nueva Jersey declaró que un borrador de fallo en una demanda de valores se había publicado "por error —error humano"— después de que un becario de la facultad de derecho utilizara ChatGPT de OpenAI para una investigación sin autorización ni divulgación. La decisión se retiró de inmediato al descubrirse el error.

Para evitar que esto vuelva a suceder, Neals dijo que su cámara había creado desde entonces una política de IA escrita y mejorado su proceso de revisión.

Vea también  Cómo el impacto de la IA está revolucionando la industria de los videojuegos

El juez Wingate, que presta servicios en el Distrito Sur de Mississippi, dijo que un asistente legal utilizó la herramienta de inteligencia artificial Perplexity "como un asistente de redacción fundamental para sintetizar la información disponible públicamente en el expediente" 

Ese borrador de orden, emitido en un caso de derechos civiles, fue posteriormente reemplazado trasdenterrores. Wingate declaró que el incidente "fue una falla en la supervisión humana", y añadió que desde entonces ha endurecido los procedimientos de revisión en su despacho.

Críticas al uso de la IA en el ámbito jurídico

El episodio se suma a una creciente lista de controversias relacionadas con material legal generado por IA. Abogados de varias jurisdicciones estadounidenses se han enfrentado a sanciones en los últimos años por presentar documentos redactados por chatbots que incluían citas falsas de casos ydentmal aplicados. 

A principios de este mes, el sistema judicial del estado de Nueva York publicó una nueva política que restringe a los jueces y al personal ingresar dent , privilegiada o no pública de casos en herramientas públicas de inteligencia artificial generativa.

Si bien la profesión jurídica ha explorado rápidamente el potencial de la IA para mejorar la eficiencia, los incidentes dent puesto de manifiesto las limitaciones de la tecnología, en particular su tendencia a generar alucinaciones o información plausible pero falsa . Para los tribunales, donde la integridad, la precisión de las sentencias y la carga de la prueba son primordiales, estas fallas corren el riesgo de socavar la confianza pública en el sistema judicial.

Grassley, quien elogió a Wingate y Neals por reconocer los errores, también instó al poder judicial a implementar directrices de IAtronestrictas. 

Véase también  Jensen Huang imagina a NVIDIA con 100 millones de asistentes de IA

La Oficina Administrativa de los Tribunales de EE. UU. no ha publicado una guía exhaustiva sobre el uso de la IA, aunque varios tribunales de circuito, según se informa, están explorando marcos para un despliegue limitado y supervisado. Por otro lado, los juristas proponen una norma de divulgación que obligará a los jueces a hacer público cualquier uso de la IA en sus dictámenes u órdenes, de forma similar a los requisitos de citación para la investigación externa.

Eldentocurre mientras las agencias federales y los organismos profesionales continúan lidiando con preguntas sobre la responsabilidad de la IA.

Las mentes más brillantes del mundo de las criptomonedas ya leen nuestro boletín. ¿Te apuntas? ¡ Únete !

Compartir enlace:

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitan no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamos encarecidamente realizar una investigación independiente tron consultar dent un profesional cualificado antes de tomar cualquier decisión de inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan