Компания OpenAI отложила выпуск долгожданного инструмента для распознавания текста, сгенерированного её моделью ChatGPT. Согласно сообщениям, задержка связана с возможными проблемами, которые могут повлиять на пользовательский опыт и экосистему.
Как сообщает Wall Street Journal , компания OpenAI готовилась к выпуску инструмента в течение последнего года, но так и не сделала этого, главным образом из-за рисков и различных проблем. Решение отложить запуск инструмента, по всей видимости, также связано с мнением пользователей. В ходе опроса, проведенного OpenAI, выяснилось, что почти треть лояльных пользователей ChatGPT могут быть отпугнуты внедрением технологии защиты от мошенничества.
Как работает инструмент защиты от мошенничества
Согласно данным Центра демократии и технологий, 59% учителей средних и старших классов считают, чтоdentиспользовали ИИ в своих заданиях, что на один процентный пункт больше, чем в предыдущем году.
Инструмент защиты от мошенничества работает путем внедрения водяного знака в текст, написанный искусственным интеллектом. Хотя этот водяной знак невидим невооруженным глазом, технология обнаружения OpenAI способна его обнаружить. Инструмент выдает оценку, которая отражает вероятность того, что данный текст был написан ChatGPT. Утверждается, что эта техника нанесения водяных знаков практически идеальна, поскольку внутренние документы показывают, что она имеет эффективность 99,9% при большом объеме контента, генерируемого ChatGPT.
Однако, в отношении этого инструмента были высказаны некоторые опасения. Одна из главных проблем заключается в том, что он может быть невыгоден для тех, кто не является носителем английского языка. Некоторые опасаются, что водяной знак может быть недостаточно эффективным или может помечать работы авторов с плохим знанием английского языка как плагиат. Кроме того, критики выразили опасения, что водяной знак может быть стерт или изменен путем перевода или путем добавления и удаления эмодзи.
Ещё один вопрос касается того, кому следует разрешить использовать инструмент обнаружения. Ограничение доступа может снизить применимость метода водяных знаков; однако предоставление свободного доступа может сделать метод неэффективным.
Другие технологические гиганты разрабатывают аналогичные решения
Хотя OpenAI еще не внедрила инструмент защиты от мошенничества для текста, компания уже начала применять водяные знаки для аудио- и видеофайлов. Эти мультимедийные форматы компания рассматривает как приоритетные, поскольку созданные с помощью ИИ дипфейки представляют больший риск, чем текстовый контент.
Другие технологические компании также разрабатывают аналогичные решения. Например, Google тоже разрабатывает собственное решение для водяных знаков, известное как SynthID, которое пока находится на стадии бета-тестирования. Однако OpenAI отдает приоритет водяным знакам для аудио- и видеоматериалов, а не для текста, поскольку последствия использования водяных знаков более серьезны и могут проявляться в критические периоды, такие как годы выборов.
Эта новость появилась на фоне того, что Илон Маск снова обратился в суд с иском против OpenAI, обвиняя компанию и ее основателей, Сэма Альтмана и Грега Брокмана, в отклонении от первоначальной цели — создания ИИ для улучшения человечества.

