Na quinta-feira, a Anthropic admitiu que uma referência incorreta em um documento judicial foi resultado de seu próprio assistente de IA, Claude, e classificou a falha como "um erro embaraçoso e não intencional"
A Universal, a Concord e a ABKCO processaram a Anthropic no ano passado, alegando que a empresa sediada em São Francisco copiou integralmente suas letras para treinar Claude. O caso é um dos vários processos de grande repercussão sobre se empresas de tecnologia podem usar obras protegidas por direitos autorais sem permissão para treinar sistemas de IA.
A Reuters informou que, durante uma audiência na terça-feira, o advogado Matt Oppenheim, que representa a Universal Music Group, a ABKCO e a Concord, disse ao tribunal que a citação do chatbot era uma "completa invenção" para apoiar o caso da Anthropic.
A juíza federal Susan van Keulen classificou a mais recente alegação como "uma questão muito séria e grave" e enfatizou "uma enorme diferença entre uma citação não cumprida e uma alucinação gerada por inteligência artificial". A juíza ordenou que as partes explicassem o assunto detalhadamente em suas alegações por escrito.
Advogados antropológicos afirmam que a IA Claude cometeu um erro de formatação
Em resposta por escrito na quinta-feira, a advogada da Anthropic, Ivana Dukanovic, afirmou que a referência era verdadeira, mas foi mal interpretada quando Claude foi solicitado a formatá-la em estilo jurídico. Ela explicou que os números de volume e página incorretos gerados pelo robô foram corrigidos durante uma revisão manual, porém erros de redação passaram despercebidos.
“Embora eu tenha fornecido o título correto da publicação, o ano de publicação e o link para a fonte indicada, a citação retornada incluía um título impreciso e autores incorretos”, escreveu Dukanovic, acrescentando que a falha não se tratava de uma “fabricação de autoridade”
A Anthropic pediu desculpas pela confusão e afirmou que o deslize não foi intencional nem uma tentativa de enganar o tribunal.
Erros de IA continuam causando problemas nos tribunais
Vários advogados foram recentemente criticados ou sofreram sanções por utilizarem material gerado por IA que se revelou falso. Em sua petição, Dukanovic afirmou que o escritório de advocacia Latham & Watkins, que representa a Anthropic, adicionou “múltiplos níveis de revisão adicional para garantir que isso não volte a acontecer”
Odent se junta a uma lista crescente de erros judiciais relacionados à IA generativa.
Na semana passada, um juiz da Califórnia repreendeu dois escritórios de advocacia por não terem mencionado o uso de IA para elaborar um parecer complementar repleto de referências "falsas" que "não existiam". Em dezembro, um pesquisador de desinformação admitiu que o ChatGPT havia inventado citações em um documento que ele preparou.

