Закон Европейского союза об искусственном интеллекте (ИИ) наконец вступил в силу спустя пять месяцев после принятия его парламентом Европейского союза. С вступлением в силу закона он станет знаковым документом в области ИИ и может задать темпы регулирования этой развивающейся отрасли для других стран.
Однако большинство положений Закона об искусственном интеллекте не вступят в силу немедленно, поскольку существуют сроки применения правил. Ожидается, что это даст компаниям больше времени для соблюдения законодательства по мере развития сектора и позволит государствам-членам подготовиться к его применению.
Варианты использования ИИ классифицируются в зависимости от связанных с ними рисков
Закон вводит систему классификации рисков для определения правил, которые будут применяться к каждой компании, занимающейся искусственным интеллектом. Категории включают в себя: отсутствие риска, минимальный риск, высокий риск и запрет, и от того, к какой категории относится система ИИ, будет зависеть, когда правила, регулирующие ее деятельность, вступят в силу.
Для запрещенных систем искусственного интеллекта регулятор установил крайний срок в феврале 2025 года для запрета систем, которые собирают данные из интернета с целью расширения баз данных распознавания лиц или манипулируют пользователями для принятия решений.
К категории приложений с высоким риском также будет предоставлено шесть месяцев с 1 августа для соблюдения строгих правил, применимых к ним. К системам искусственного интеллекта, классифицируемым как системы высокого риска, относятся системы, используемые для распознавания лиц, биометрии, критически важных государственных услуг, образования, трудоустройства и медицинского программного обеспечения.
К требованиям, предъявляемым к группе, относятся предоставление регулирующим органам обучающих наборов данных для аудита и подтверждение человеческого контроля. Они также обязаны проводить предрыночные испытания на соответствие стандартам. Для систем высокого риска, используемых государственными учреждениями или в государственных целях, разработчик должен зарегистрировать их в базе данных ЕС.
Между тем, около 85% систем ИИ попадают в категорию минимального риска, с более гибкими правилами. Тем не менее, закон предусматривает санкции для предотвращения нарушений. Штрафы варьируются от 7% от годового мирового оборота компаний, нарушающих правила использования запрещенных систем ИИ, до 1,5% за предоставление неверной информации регулирующим органам.
Генеративный ИИ с минимальными ограничениями
Для разработчиков систем генеративного ИИ опасения невелики, поскольку закон классифицирует их модели как примеры ИИ общего назначения (GPAI) и относит большинство из них к категории минимального риска. Таким образом, ведущие чат-боты на основе ИИ, такие как MetaAI, ChatGPT, Perplexity, Claude AI и др., не будут существенно затронуты.
Закон требует от этих компаний, занимающихся искусственным интеллектом, лишь большей прозрачности за счет раскрытия данных об обучении. От них также ожидается соблюдение правил ЕС об авторском праве. Однако небольшая группа компаний, занимающихся разработкой ИИ, считается достаточно важной, чтобы создавать системные риски. Речь идет о компаниях, обучение которых проводилось с использованием вычислительных мощностей выше определенного уровня.
Интересно, что ЕС также отвечает за соблюдение правил, касающихся GPAI, хотя каждая страна несет ответственность за выполнение общих правил, предусмотренных Законом. Государствам необходимо до августа 2025 года создать органы для реализации Закона на своей территории.
Между тем, по-прежнему остается много неясностей в отношении ряда аспектов Закона. К ним относятся конкретные руководящие принципы, которым должны соответствовать разработчики GPAI в соответствии с Законом. Регуляторы разрабатывают кодексы практики для этой цели, и Управление по искусственному интеллекту возглавляет эту работу.
Управление, которое контролирует и развивает экосистему искусственного интеллекта, недавно объявило о начале процесса консультаций и призвало все заинтересованные стороны принять участие в процессе разработки правил. Планируется, что кодексы будут готовы к апрелю 2025 года.

