В четверг компания Anthropic признала, что ошибочная ссылка в судебном документе была результатом работы ее собственного ИИ-помощника Клода, и назвала эту оплошность «неловкой и непреднамеренной ошибкой»
В прошлом году компании Universal, Concord и ABKCO подали в суд на Anthropic, утверждая, что компания из Сан-Франциско полностью скопировала их текст песни для обучения Клода. Это дело — одно из нескольких громких дел, касающихся того, могут ли технологические компании использовать защищенные авторским правом произведения без разрешения для обучения систем искусственного интеллекта.
Агентство Reuters сообщило , что во время слушания во вторник адвокат Мэтт Оппенхайм, представляющий интересы Universal Music Group, ABKCO и Concord, заявил суду, что цитата, приведенная чат-ботом, является «полной выдумкой», призванной поддержать позицию Anthropic.
Судья Сьюзан ван Кеулен в США назвала последнее обвинение «очень серьезным и опасным вопросом» и подчеркнула «огромную разницу между пропущенным штрафом и галлюцинацией, сгенерированной искусственным интеллектом». Судья обязала стороны подробно изложить суть дела в своих письменных заявлениях.
Юристы-антропологи утверждают, что Claude AI допустил ошибку при форматировании
В письменном ответе, опубликованном в четверг, юрист компании Anthropic Ивана Дуканович заявила, что ссылка была подлинной, но была допущена ошибка при оформлении текста Клодом в юридическом стиле. Она пояснила, что неверные номера тома и страниц, сгенерированные ботом, были исправлены во время ручной проверки, однако ошибки в формулировках остались незамеченными.
«Несмотря на указание правильного названия публикации, года публикации и ссылки на предоставленный источник, в возвращенной цитате содержалось неточное название и неверные авторы», — написал Дуканович, добавив, что эта ошибка не является «выдумкой авторитетных источников»
Компания Anthropic принесла извинения за возникшую путаницу и заявила, что ошибка не была ни преднамеренной, ни попыткой ввести суд в заблуждение.
Ошибки искусственного интеллекта продолжают создавать проблемы в суде
Несколько юристов недавно подверглись критике или санкциям за использование сгенерированных искусственным интеллектом материалов, которые оказались ложными. В своем заявлении Дуканович сообщила, что юридическая фирма Latham & Watkins, представляющая интересы Anthropic, добавила «многоуровневую дополнительную проверку, чтобы гарантировать, что подобное больше не повторится»
Этотdent пополнил растущий список судебных ошибок, связанных с генеративным искусственным интеллектом.
На прошлой неделе калифорнийский судья отчитал две юридические фирмы за то, что они не указали на использование ИИ для составления дополнительного заключения, содержащего «фиктивные» ссылки, которых «не существовало». В декабре исследователь дезинформации признал, что ChatGPT выдумала ссылки в подготовленном им документе.

