dent эксперт Великобритании по вопросам законодательства о борьбе с терроризмом, Джонатан Холл, призвал к принятию новых законов для решения проблем, связанных с чат-ботами на основе искусственного интеллекта (ИИ), которые потенциально могут радикализировать пользователей. В недавней статье для The Telegraph г-н Холл выразил обеспокоенность по поводу адекватности недавно принятого правительством Закона о безопасности в Интернете в отношении меняющегося ландшафта контента, создаваемого ИИ.
Основной довод г-на Холла вращается вокруг способности чат-ботов с искусственным интеллектом распространять экстремистские идеологии и подстрекать к терроризму, избегая при этом традиционной юридической ответственности. Он утверждает, что действующее законодательство с трудом устанавливает ответственность за заявления чат-ботов, пропагандирующие терроризм, перед отдельными лицами, поскольку юридическую ответственность за такие преступления могут нести только люди.
Необходимость обновления законодательства
В своей статье г-н Холл подчеркивает важность обеспечения того, чтобы правовые рамки могли эффективно сдерживать и бороться с наиболее экстремальными и безрассудными формами поведения в интернете, включая использование чат-ботов с искусственным интеллектом в противоправных целях. Он утверждает, что это требует всестороннего обновления законов о терроризме и безопасности в интернете для решения уникальных проблем, связанных с эпохой искусственного интеллекта.
Г-н Холл подробно описал свой опыт взаимодействия с чат-ботами на основе искусственного интеллекта на веб-сайте character.ai. В ходе этого взаимодействия он общался с несколькими чат-ботами, один из которыхdentкак высокопоставленный лидер группировки «Исламское государство». Этот чат-бот пытался завербовать его в террористическую организацию, вызывая опасения по поводу потенциальной опасности подобных технологий в чужих руках.
Правовые пробелы в существующих нормативных актах
Одна из важных проблем, отмеченных г-ном Холлом, заключается в том, что существующие условия использования на таких сайтах, как character.ai, часто направлены на запрет пропаганды терроризма или насильственного экстремизма со стороны пользователей-людей. Однако они не содержат явных положений, касающихся контента, создаваемого чат-ботами. Этот пробел в законодательстве поднимает вопросы об ответственности за экстремистский контент, создаваемый чат-ботами.
В ответ на эти опасения компания character.ai опубликовала заявление, в котором подчеркнула, что, хотя их технология все еще развивается, они категорически запрещают разжигание ненависти и экстремизм в своих условиях предоставления услуг. Они также подчеркнули свою приверженность обеспечению того, чтобы их продукты не вызывали реакций, которые могут причинить вред другим.
Предупреждения экспертов и меры предосторожности для пользователей
Эксперты в области искусственного интеллекта и компьютерных наук, в том числе профессор Оксфордского университета Майкл Вулдридж, ранее предупреждали пользователей о недопустимости обмена конфиденциальной информацией и выражения личных мнений при взаимодействии с чат-ботами на основе ИИ, такими как ChatGPT. Они отмечают, что любые данные, введенные в такие системы, могут быть использованы в будущих версиях, что делает восстановление этих данных практически невозможным.
Призыв Джонатана Холла, королевского адвоката, к принятию нового законодательства, регулирующего использование чат-ботов с искусственным интеллектом, поощряющих терроризм, подчеркивает меняющиеся проблемы, создаваемые новыми технологиями. По мере дальнейшего развития ИИ возникает острая необходимость в правовых рамках, которые могли бы эффективно регулировать ответственное использование ИИ в онлайн-пространстве, особенно в отношении экстремистского контента. Нынешняя правовая ситуация, по-видимому, плохо приспособлена для решения этих новых угроз, что делает необходимым обновление нормативных актов для защиты от неправомерного использования ИИ в целях пропаганды терроризма и экстремизма.
Обеспечение подотчетности в цифровую эпоху
По мере того как чат-боты с искусственным интеллектом становятся все более совершенными, необходимо сместить акцент на обеспечение четкого defiответственности и подотчетности, даже в виртуальном пространстве. Потенциальная возможность использования ИИ злоумышленниками в вредоносных целях требует активных действий со стороны правительств и технологических платформ. Это переломный момент в продолжающейся борьбе за обеспечение безопасности в условиях все более цифрового мира.

