Двое федеральных судей США признали, что сотрудники их канцелярий использовали искусственный интеллект для составления судебных решений, и что эксперимент закончился плачевно.
В двух откровенных письмах, обнародованных в четверг сенатором Чаком Грасслэйем, председателем юридического комитета Сената, судьи Генри Т. Уингейт из Миссисипи и Жюльен Ксавье Нилс из Нью-Джерси заявили, что инструменты искусственного интеллекта использовались при подготовке судебных решений, которые впоследствии оказались полны фактических ошибок и юридических просчетов. Оба решения впоследствии былиtrac.
Грассли, потребовавший объяснений, заявил: «Каждый федеральный судья, и судебная система как институт, обязаны обеспечить, чтобы использование генеративного ИИ не нарушало права участников судебного процесса и не препятствовало справедливому обращению в соответствии с законом»
Ошибки персонала выявили ограничения применения ИИ в зале суда
В своем письмесудья Нилс из окружного суда Нью-Джерси заявил, что проект решения по иску о ценных бумагах был опубликован «по ошибке — из-за человеческой ошибки» после того, как стажер юридического факультета использовал ChatGPT от OpenAI для исследований без разрешения и без раскрытия информации. Решение было незамедлительно отозвано, как только ошибка была обнаружена.
Чтобы предотвратить повторение подобных инцидентов, Нилс заявил, что его контора разработала письменную политику в отношении искусственного интеллекта и усовершенствовала процесс его проверки.
Судья Уингейт, работающий в Южном округе Миссисипи, заявил, что помощник судьи использовал инструмент искусственного интеллекта Perplexity «в качестве базового помощника для составления документов, позволяющего обобщить общедоступную информацию по делу»
Этот проект постановления, вынесенный по делу о нарушении гражданских прав, позже был заменен после того, как онdentошибки. Уингейт заявил, что это событие «было следствием человеческой ошибки», добавив, что с тех пор он ужесточил процедуры проверки в своей канцелярии.
Критика использования ИИ в юридической практике
Этот эпизод пополняет растущий список спорных ситуаций, связанных с юридическими материалами, созданными с помощью ИИ. В последние годы юристы в ряде юрисдикций США сталкивались с санкциями за подачу документов, составленных чат-ботами, которые содержали сфабрикованные ссылки на судебные дела и неверное применениеdent.
В начале этого месяца судебная система штата Нью-Йорк ввела новую политику, которая ограничивает право судей и сотрудников вносить конфиденциальнуюdentпривилегированную или непубличную информацию по делу в общедоступные инструменты генеративного искусственного интеллекта.
Хотя юридическое сообщество быстро отреагировало на потенциал ИИ в повышении эффективности, произошедшие инцидентыdentограничения этой технологии, в частности, ее склонность к галлюцинациям, то есть к генерации правдоподобной, но ложной информации. Для судов, где целостность, точность решений и бремя доказывания имеют первостепенное значение, подобные нарушения рискуют подорвать доверие общественности к системе правосудия.
Грассли, похваливший Уингейта и Нилса за признание ошибок, также призвал судебную систему ввести в действиеtronстрогие правила в отношении искусственного интеллекта.
Административное управление судов США пока не опубликовало исчерпывающих рекомендаций по использованию ИИ, хотя, по сообщениям, несколько окружных судов изучают рамки для ограниченного, контролируемого внедрения. Юристы, с другой стороны, предлагают правило раскрытия информации, которое потребует от судей публично указывать любое использование ИИ в своих заключениях или постановлениях, аналогично требованиям к цитированию внешних исследований.
Этиdentпроисходят на фоне того, как федеральные агентства и профессиональные организации продолжают решать вопросы подотчетности в сфере искусственного интеллекта.

