Anthrope el jueves admitió que una referencia defectuosa en un documento de la corte fue el resultado de su propio asistente de IA Claude y calificó el lapso "un error vergonzoso e involuntario".
Universal, Concord y Abkco demandaron a Anthrope el año pasado, alegando que la compañía con sede en San Francisco copió sus letras al por mayor para entrenar a Claude. El caso es uno de varios casos de alto perfil sobre si las empresas de tecnología pueden usar el trabajo con derechos de autor sin permiso para capacitar a los sistemas de IA.
Reuters informó que durante una audiencia el martes, el abogado Matt Oppenheim, quien representa a Universal Music Group, Abkco y Concord, le dijo al tribunal que la cita del chatbot fue una "fabricación completa" para apoyar el caso de Anthrope.
La jueza magistrada de los Estados Unidos, Susan Van Keulen, calificó la última acusación "un problema muy serio y grave" y enfatizó "un mundo de diferencia entre una cita perdida y una alucinación generada por la IA". El juez ordenó a las partes que explicen el asunto completamente en sus presentaciones escritas.
Los abogados antrópicos dicen que Claude Ai se equivocó mientras formatea
En una respuesta escrita el jueves, la abogada antrópica Ivana Dukanovic dijo que la referencia era real pero que se manejó mal cuando se le pidió a Claude que la formateara en estilo legal. Explicó que el volumen incorrecto y los números de página producidos por el Bot se solucionaron durante una revisión manual, pero los errores de redacción pasaron sin previo aviso.
"Aunque proporciona el título de publicación correcto, el año de publicación y el enlace a la fuente proporcionada, la cita devuelta incluyó un título inexacto y autores incorrectos", escribió Dukanovic, y agregó que la falla no era una "fabricación de autoridad".
Anthrope se disculpó por la confusión y dijo que el desliz no era deliberado ni un intento de engañar a la corte.
Los errores de IA siguen causando problemas en la corte
Varios abogados han enfrentado recientemente críticas o sanciones por confiar en material generado por la IA que resultó ser falso. En su presentación, Dukanovic dijo que el bufete de abogados Latham & Watkins, que representa antrópico, ha agregado "múltiples niveles de revisión adicional para trabajar para garantizar que esto no vuelva a ocurrir".
Eldent se une a una creciente lista de errores de la corte vinculados a la IA generativa.
La semana pasada, un juez de California regañó a dos firmas de abogados por no decir que habían usado IA para elaborar un breve breve complementario lleno de referencias "falsas" que "no existían". En diciembre, un investigador de información errónea admitió que ChatGPT había inventado citas en una presentación que preparó.
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora