Европейские законодатели предостерегают от предлагаемых изменений в знаковый закон Европейского союза об искусственном интеллекте, заявляя, что эти шаги могут позволить крупным американским технологическим компаниям обойти ключевые положения закона об ИИ.
Авторы Закона об искусственном интеллекте считают, что переход от обязательных к добровольным правилам подорвет усилия по предотвращению распространения вредоносного контента и вмешательства в выборы со стороны таких компаний, как OpenAI и Google.
В письме к главе цифрового направления Еврокомиссии Хенне Вирккунен видные члены Европейского парламента назвали этот план «опасным, недемократичным и создающим правовую неопределенность».
Среди подписавших письмо — несколько депутатов Европарламента, участвовавших в разработке закона, а также Карме Артигас, бывший министр цифровизации и искусственного интеллекта Испании. Они предупреждают, что безответственное поведение наиболее влиятельных поставщиков ИИ может «серьезно подорвать экономику и демократию Европы»
Действующий закон делит системы искусственного интеллекта на три категории риска
Европейская комиссия в настоящее время обсуждает вопрос о смягчении некоторых положений закона после интенсивного лоббирования со стороны Дональда Трампа и крупных технологических компаний. В соответствии с действующим законом, который считается самой строгой нормативной базой для ИИ, системы разделены на три категории риска. Приложения высокого риска, такие как используемые в здравоохранении или общественном транспорте, должны соответствовать более строгим требованиям к отчетности и прозрачности. Мощные модели также обязаны раскрывать информацию о том, как они были обучены, и избегать генерации вредной или ложной информации.
В основе нынешнего спора лежит «кодекс практики», призванный помочь компаниям, работающим в сфере искусственного интеллекта, соблюдать эти правила. Этот кодекс разрабатывается группой экспертов, в которую входит лауреат премии Тьюринга Йошуа Бенджио, и окончательная версия ожидается в мае. По словам источников , знакомых с процессом, эксперты ищут способ обеспечить действие закона, одновременно убеждая крупных технологических игроков присоединиться к нему.
Американские технологические компании лоббируют против Закона об искусственном интеллекте
Брюссель столкнулся с жестким сопротивлением со стороны американских компаний. В феврале глава отдела глобальных связей Meta, Джоэл Каплан, заявил брюссельской аудитории, что положения кодекса будут «неработоспособными и технически невыполнимыми». Meta также заявляет, что не может выпустить свои новейшие мультимодальные большие языковые модели или своего новейшего ИИ-помощника в Европе из-за региональных правил конфиденциальности. Google, наряду с такими европейскими компаниями, как Spotify и Ericsson, также критиковал некоторые части законодательства.
Тем временем вице-президент США dent Ди Вэнс на саммите по искусственному интеллекту во Франции, проходившем в Париже , осудил «чрезмерное регулирование ИИ» и настаивал на том, что «ИИ должен оставаться свободным от идеологической предвзятости». Эти заявления прозвучали на фоне усилий Комиссии в рамках ее нового срока полномочий, начавшегося в декабре, по привлечению trac объема инвестиций в ИИ. В рамках этой цели Комиссия недавно отозвала предложенную директиву об ответственности за ИИ, представив ее как часть более широкой программы дерегулирования.

мероприятии Financial Times «Расширение возможностей Европы в сфере ИИ» , что кодекс практики должен помогать предприятиям, включая малые и средние предприятия, предлагая руководящие принципы, «а не создавая дополнительных препятствий или обязательств по отчетности». Она подчеркнула, что основополагающие принципы остаются неизменными. «Мы хотим обеспечить, чтобы в Европе существовала справедливая, безопасная и демократичная среда, в том числе и в отношении цифрового мира», — сказала она.
Законодатели, участвовавшие в разработке Закона об искусственном интеллекте, утверждают, что превращение значительной его части в добровольные меры подорвет эти ценности. Они настаивают на том, что поставщики технологий, обладающие значительным влиянием, должны нести ответственность, если их модели порождают дезинформацию или способствуют вмешательству в выборы. По их мнению, любое ослабление требований может открыть двери для дискриминационных результатов или новых форм злоупотребления.

