В рамках значительного шага на пути к обеспечению безопасного и ответственного развития искусственного интеллекта (ИИ) Соединенные Штаты, Великобритания, Сингапур и еще 15 стран совместно представили первое всеобъемлющее международное соглашение, посвященное ответственному развитию ИИ. Эта историческая инициатива, хотя и не имеющая обязательной юридической силы, знаменует собой важный шаг в приоритетном обеспечении мер безопасности в системах ИИ с самого начала их разработки.
Глобальные усилия по обеспечению ответственного использования ИИ
Международное соглашение, изложенное в недавно опубликованном 20-страничном документе, объединяет 18 стран, включая США, Сингапур, Великобританию, Германию, Италию, Чешскую Республику, Эстонию, Польшу, Австралию, Чили, Израиль и Нигерию. Хотя оно не имеет обязательной юридической силы, это соглашение подчеркивает общую приверженность разработке и внедрению систем искусственного интеллекта с основным упором на защиту как потребителей, так и широкой общественности от потенциального неправомерного использования.
Джен Истерли, директор Агентства США по кибербезопасности и защите инфраструктуры (CISA), подчеркнула значимость этого соглашения. Это первый случай, когда несколько стран совместно подтвердили необходимость уделять приоритетное внимание безопасности на этапе проектирования систем искусственного интеллекта. Истерли подчеркнула, что эти рекомендации выходят за рамки простого учета характеристик и рыночной конкуренции, акцентируя внимание на важности вопросов безопасности.
Рамочная программа, рассматривающая ключевые вопросы
Данная комплексная концепция рассматривает важнейшие вопросы, связанные с предотвращением попадания технологий искусственного интеллекта в чужие руки. Она включает рекомендации по тщательному тестированию безопасности перед выпуском моделей ИИ и меры по мониторингу систем ИИ на предмет потенциального злоупотребления. Кроме того, она фокусируется на защите данных от фальсификации и проверке поставщиков программного обеспечения на соответствие стандартам безопасности.
Однако важно отметить, что соглашение не затрагивает более спорные аспекты, такие как defiнадлежащего использования ИИ или рассмотрение опасений по поводу методов сбора данных.
Глобальные инициативы по ограничению рисков, связанных с искусственным интеллектом
Это международное соглашение является частью ряда глобальных инициатив, направленных на формирование траектории развития искусственного интеллекта. Данные руководящие принципы свидетельствуют о коллективном признании необходимости уделять первостепенное внимание вопросам безопасности в сфере искусственного интеллекта.
В прошлом месяце «Большая семерка» (G7) также приняла решение согласовать кодекс поведения для компаний, разрабатывающих передовые системы искусственного интеллекта. Этот кодекс из 11 пунктов направлен на содействие безопасному, надежному и заслуживающему доверия использованию ИИ во всем мире. Он отражает намерение правительств сотрудничать в целях снижения рисков и потенциального неправомерного использования технологий ИИ. Кодекс подчеркивает, что компании должны активно принимать меры поdent, оценке и снижению рисков на протяжении всего жизненного цикла ИИ.
Аналогичным образом, Европейский союз добился существенного прогресса, достигнув предварительного соглашения по Закону об искусственном интеллекте, который потенциально может стать первым в мире всеобъемлющим сводом законов, регулирующих использование технологий ИИ. В соответствии с этим законом компании, использующие инструменты генеративного ИИ, такие как ChatGPT и Midjourney, обязаны раскрывать любые материалы, защищенные авторским правом, используемые при разработке их систем. В настоящее время законодатели ЕС и государства-члены совместно работают над завершением разработки деталей законопроекта. Инструменты ИИ классифицируются в зависимости от уровня риска, который они представляют, от низкого до ограниченного, высокого или неприемлемого.
Глобальная динамика регулирования ИИ
По мере того как в мире набирает обороты движение за регулирование ИИ, «Большая семерка» (G7) готовится к разработке кодекса поведения для передовых систем ИИ. Это предстоящее соглашение по ИИ, наряду с недавно достигнутым международным соглашением и работой Европейского союза в области законодательства об ИИ, подчеркивает согласованные усилия по решению проблем, связанных с меняющейся обстановкой в сфере искусственного интеллекта. Основное внимание по-прежнему уделяется необходимости мер безопасности и ответственного развития в секторе ИИ.
Международное соглашение об ответственном развитии ИИ представляет собой поворотный момент в глобальном ландшафте ИИ. Хотя оно и не имеет обязательной юридической силы, оно ясно дает понять, что страны привержены приоритетному обеспечению безопасности систем ИИ и защите интересов общества. По мере дальнейшего развития технологий ИИ эти совместные усилия направлены на достижение баланса между использованием его преимуществ и смягчением потенциальных рисков, в конечном итоге формируя ответственное будущее искусственного интеллекта.

