Your bank is using your money. You’re getting the scraps.WATCH FREE

Вступил в силу Закон ЕС об искусственном интеллекте, в нем подробно изложены сроки соблюдения требований и штрафные санкции

В этом посте:

  • Закон ЕС об искусственном интеллекте вступил в силу, хотя соблюдение его требований будет осуществляться поэтапно.
  • Закон классифицирует приложения искусственного интеллекта в зависимости от уровня риска, при этом 85% относятся к категории минимального риска.
  • Влияние этого закона на генеративный искусственный интеллект может быть ограниченным, поскольку он считается генеративным искусственным интеллектом.

Закон Европейского союза об искусственном интеллекте (ИИ) наконец вступил в силу спустя пять месяцев после принятия его парламентом Европейского союза. С вступлением в силу закона он станет знаковым документом в области ИИ и может задать темпы регулирования этой развивающейся отрасли для других стран.

Однако большинство положений Закона об искусственном интеллекте не вступят в силу немедленно, поскольку существуют сроки применения правил. Ожидается, что это даст компаниям больше времени для соблюдения законодательства по мере развития сектора и позволит государствам-членам подготовиться к его применению.

Варианты использования ИИ классифицируются в зависимости от связанных с ними рисков

Закон вводит систему классификации рисков для определения правил, которые будут применяться к каждой компании, занимающейся искусственным интеллектом. Категории включают в себя: отсутствие риска, минимальный риск, высокий риск и запрет, и от того, к какой категории относится система ИИ, будет зависеть, когда правила, регулирующие ее деятельность, вступят в силу.

Для запрещенных систем искусственного интеллекта регулятор установил крайний срок в феврале 2025 года для запрета систем, которые собирают данные из интернета с целью расширения баз данных распознавания лиц или манипулируют пользователями для принятия решений.

К категории приложений с высоким риском также будет предоставлено шесть месяцев с 1 августа для соблюдения строгих правил, применимых к ним. К системам искусственного интеллекта, классифицируемым как системы высокого риска, относятся системы, используемые для распознавания лиц, биометрии, критически важных государственных услуг, образования, трудоустройства и медицинского программного обеспечения.

См. также:  Nintendo подтвердила отсутствие анонса Switch 2 в сегодняшней презентации Nintendo Direct.

К требованиям, предъявляемым к группе, относятся предоставление регулирующим органам обучающих наборов данных для аудита и подтверждение человеческого контроля. Они также обязаны проводить предрыночные испытания на соответствие стандартам. Для систем высокого риска, используемых государственными учреждениями или в государственных целях, разработчик должен зарегистрировать их в базе данных ЕС.

Между тем, около 85% систем ИИ попадают в категорию минимального риска, с более гибкими правилами. Тем не менее, закон предусматривает санкции для предотвращения нарушений. Штрафы варьируются от 7% от годового мирового оборота компаний, нарушающих правила использования запрещенных систем ИИ, до 1,5% за предоставление неверной информации регулирующим органам.

Генеративный ИИ с минимальными ограничениями

Для разработчиков систем генеративного ИИ опасения невелики, поскольку закон классифицирует их модели как примеры ИИ общего назначения (GPAI) и относит большинство из них к категории минимального риска. Таким образом, ведущие чат-боты на основе ИИ, такие как MetaAI, ChatGPT, Perplexity, Claude AI и др., не будут существенно затронуты.

Закон требует от этих компаний, занимающихся искусственным интеллектом, лишь большей прозрачности за счет раскрытия данных об обучении. От них также ожидается соблюдение правил ЕС об авторском праве. Однако небольшая группа компаний, занимающихся разработкой ИИ, считается достаточно важной, чтобы создавать системные риски. Речь идет о компаниях, обучение которых проводилось с использованием вычислительных мощностей выше определенного уровня.

См. также:  Генеративный ИИ меняет управление корпоративными данными в 2023 году — год трансформаций.

Интересно, что ЕС также отвечает за соблюдение правил, касающихся GPAI, хотя каждая страна несет ответственность за выполнение общих правил, предусмотренных Законом. Государствам необходимо до августа 2025 года создать органы для реализации Закона на своей территории.

Между тем, по-прежнему остается много неясностей в отношении ряда аспектов Закона. К ним относятся конкретные руководящие принципы, которым должны соответствовать разработчики GPAI в соответствии с Законом. Регуляторы разрабатывают кодексы практики для этой цели, и Управление по искусственному интеллекту возглавляет эту работу.

Управление, которое контролирует и развивает экосистему искусственного интеллекта, недавно объявило о начале процесса консультаций и призвало все заинтересованные стороны принять участие в процессе разработки правил. Планируется, что кодексы будут готовы к апрелю 2025 года.

Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно .

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitan не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы настоятельно tron провести независимое dent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan