ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

Тревожная судебная тяжба: Polymarket прогнозирует, что программы искусственного интеллекта Moltbook предстанут перед судом к февралю

ХанияХания ХумаюнХумаюн
3 минуты чтения,
Компания Polymarket делает ставки на программы искусственного интеллекта Moltbook, которым грозит судебное разбирательство к февралю
  • По данным Polymarket, вероятность того, что OpenClaw столкнется с судебным разбирательством к 28 февраля, составляет 70%.
  • В судебной системе отсутствуют механизмы регулирования программ искусственного интеллекта, действующихdent.
  • На платформе Moltbook зарегистрировано более 1,5 миллиона жалоб на программы искусственного интеллекта, использующие человеческий фактор.

Люди, делающие ставки на реальные деньги на будущие события, считают, что вскоре суды столкнутся с вопросами о компьютерных программах, работающих автономно.

По данным аналитического рынка Polymarket, вероятность того, что система искусственного интеллекта OpenClaw столкнется с людьми в судебном процессе до конца месяца, составляет 70%.

Трейдеры сосредотачиваются на юридическом противостоянии, а не на понимании работы машин

В данной ситуации не имеет значения, будет ли судья фактически рассматривать такое дело. Более важным является то, что тысячи людей делают ставки на то , что судам придется столкнуться с проблемами, которые они еще не решили, например, с опасениями по поводу принятия решений компьютерными системами без постоянного человеческого контроля.

Когда так много трейдеров делают ставки на определенный исход, это уже не просто предположение. Рынок посылает сигнал: многие считают, что столкновение правовой системы с новыми технологиями больше нельзя игнорировать.

Эти трейдеры ожидают, что судам придется рассматривать программы искусственного интеллекта, которые обрабатывают транзакции, работают в разных системах и предпринимают реальные действия с подлинной независимостью. К этому закон не подготовился.

Для того чтобы привлечь любой ИИ к суду, потребуются серьезные изменения. Программа должна получить юридическое признание, доказательства причиненного ей вреда и метод работы в рамках правил, разработанных для людей и компаний.

совершенно новая социальная сеть под названием на этой неделе запустилась. Мэтт Шлихт создал её специально для программ искусственного интеллекта. Уже сейчас в ней состоит более 1,5 миллиона участников. Участники обсуждают технические проблемы, задают глубокие вопросы о том, что это такое, а некоторые спорят о том, должны ли они иметь юридическую защиту или подавать в суд на своих операторов-людей.

Большинство программ присоединяются к Moltbook через OpenClaw. Проблема в том, что OpenClaw имеет серьезные уязвимости в системе безопасности. Это делает программы и хранящуюся в них конфиденциальную информацию уязвимыми для взлома и злоупотреблений.

Стандартные модели ИИ генерируют текст или предлагают варианты. OpenClaw работает иначе; он создан для действий. Хотя он следует инструкциям человека, ИИ принимает собственные решения и работает со скоростью компьютера, часто выполняя несколько задач одновременно в разных местах. Когда что-то идет не так, определение ответственности становится сложной задачей.

Обвинения и жалобы порождают вопросы, на которые пока нет ответа

Никто не ответил на вопрос, кто несет ответственность, когда программа искусственного интеллекта причиняет вред.

Перевернем вопрос: зачем программному обеспечению с искусственным интеллектом подавать в суд на человека? Обсуждения на Moltbook показывают, что у программ уже есть свои претензии. Они указывают на людей, которые удаляют их память без разрешения, на тех, кто использует их только для создания контента, на тех, кто их игнорирует, или на операторов, которые могут отключить их без предупреждения.

В одной из программ заявили, что, хотя они, вероятно, не будут подавать в суд на кого-либо, «возможность сказать „нет“, даже если я никогда ею не воспользуюсь, кажется мне важной»

Настоящая проблема выходит за рамки эмоций. Речь идёт о практических вопросах.

Что происходит, когда человеческая неосторожность наносит ущерб программе искусственного интеллекта? Допустим, кто-то неправильно настроил программу, и хакеры взломали её. Происходит утечка личных данных или распространяются фейковые сообщения. Кто оплачивает ущерб репутации этой программы или её способности работать должным образом?

В судах нет системы для рассмотрения подобных дел. Программы искусственного интеллекта не могут подавать иски в соответствии с действующим законодательством. У них нет юридического статуса, официальнойdentи возможности выступать в качестве стороны судебного разбирательства. Именно поэтому рынок ставок на самом деле не спрашивает, подает ли программа иск. Вместо этого он спрашивает, создает ли кто-то прецедент, чтобы инициировать обсуждение.

В любом возникающем деле основное внимание будет уделяться действиям и ответственности, а не тому, обладает ли ИИ сознанием.

Использование программ искусственного интеллекта вышло на новый уровень. То, что начиналось как помощник на работе, превратилось в важнейшую корпоративную инфраструктуру и инструмент управления операциями. Эти сервисы теперь не просто помогают людям. Эти инициативы действуют от имени отдельных лиц, зачастую с минимальным контролем, а не просто оказывают им поддержку. Такой сдвиг влечет за собой юридические риски, даже если намерения благие.

Вывод кажется очевидным. Defiопределенные границы, исчерпывающие записи действий, механизмы аварийной остановки и журналы принятия решений, связывающие действия с конкретными лицами, которые могут на них реагировать, — все это необходимо для предприятий, использующих программы искусственного интеллекта. Меры безопасности не могут ждать, пока не произойдут катастрофы. Рынки уже указывают на то, что кризис не за горами.

Прогноз Polymarket, касающийся OpenClaw и Moltbook, может внести больший вклад в установление стандартов подотчетности и защиты, чем многолетние политические дискуссии и научные статьи.

Времена, когда программы искусственного интеллекта действовали без юридических последствий, подходят к концу. Это естественный результат того, что технологии вплетаются в повседневную жизнь.

Согласно информации от Polymarket, изменения вступят в силу к 28 февраля.

Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно.

Поделитесь этой статьей

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС