Стремясь усилить надзор и подотчетность в разработке технологий искусственного интеллекта (ИИ), британская Лейбористская партия представила планы по обязательному проведению технологическими компаниями тестов на безопасность ИИ и предоставлению результатов правительству. Этот шаг является ответом на опасения, что добровольные соглашения оказались неэффективными в регулировании быстро развивающейся сферы ИИ.
Лейбористская партия призывает к обязательному тестированию безопасности ИИ.
Теневой министр технологий Питер Кайл подчеркнул необходимость более надежной нормативно-правовой базы для ИИ, сославшись на предыдущие неудачи в адекватном контроле над компаниями социальных сетей. Согласно предложенным лейбористами изменениям, технологические компании, занимающиеся разработкой передовых систем ИИ, будут обязаны координировать свои исследования с правительством.
Ключевые элементы предложения профсоюзов
- Переход к законодательному кодексу: Лейбористская партия намерена заменить действующий добровольный кодекс законодательным. Это обяжет компании, занимающиеся исследованиями и разработками в области ИИ, публиковать все данные испытаний и предоставлять подробную информацию о характере проводимых испытаний.
- Уведомление о разработке систем искусственного интеллекта: Компании, планирующие разработку систем искусственного интеллекта с определенным уровнем возможностей, обязаны уведомить правительство о своих намерениях.
- Независимый dent : Тестирование безопасности систем искусственного интеллекта будет проводиться под независимым dent , что обеспечит прозрачность и подотчетность.
Цель лейбористов — создать структуру, которая позволит Британскому институту безопасности ИИdentотслеживать и анализировать разработку передовых технологий искусственного интеллекта. Этот шаг направлен на решение потенциальных социальных и производственных проблем, связанных с технологиями ИИ, и обеспечение безопасного развития этих технологий.
Поддержка тестирования безопасности ИИ
В прошлом году такие крупные технологические гиганты, как Amazon, Google, Meta Platforms (ранее Facebook), Microsoft и OpenAI, среди прочих, договорились о добровольном тестировании безопасности своих систем искусственного интеллекта. Это соглашение было одобрено Европейским союзом и десятью странами мира, включая Китай, Германию, Францию, Японию, Великобританию и США.
Предложение лейбористов основывается на этих добровольных усилиях и направлено на укрепление нормативно-правовой базы и обеспечение более высокого уровня надзора и подотчетности в индустрии искусственного интеллекта.
Помолвка Питера Кайла в США
Питер Кайл, теневой министр технологий, находится в США с недельным визитом для проведения встреч, посвященных искусственному интеллекту. В ходе визита он планирует пообщаться с представителями правительства и ведущими технологическими компаниями, такими как Apple, Amazon, Google, Meta, Microsoft и Oracle. Кроме того, он встретится с компаниями, занимающимися разработкой ИИ, такими как Anthropic и OpenAI, чтобы обсудить, как технологии ИИ могут улучшить государственные услуги и здравоохранение.
Визит Кайла в США подчеркивает приверженность Лейбористской партии использованию искусственного интеллекта во благо общества и обеспечению его ответственного развития.
Реакция и критика со стороны консерваторов
Министр науки от Консервативной партии Эндрю Гриффит раскритиковал предложение лейбористов, заявив, что у партии отсутствует четкий план по обеспечению баланса между безопасностью ИИ и развитием бизнеса. Замечания Гриффита подчеркивают продолжающуюся в Великобритании дискуссию о регулировании и продвижении технологий искусственного интеллекта.
Недавнее исследование, проведенное комитетом Палаты лордов, вызвало опасения по поводу того, что Великобритания может упустить «золотую лихорачку» в сфере искусственного интеллекта из-за чрезмерного внимания к мерам безопасности. В этом отчете подчеркивается тонкий баланс между содействием инновациям и обеспечением ответственного развития технологий искусственного интеллекта.
Исследование МВФ о влиянии ИИ на рынок труда
Исследование Международного валютного фонда (МВФ) показало, что искусственный интеллект, вероятно, затронет около 40% рабочих мест во всем мире, причем в странах с высокоразвитой экономикой эта цифра возрастет до 60%. Исследование предполагает, что примерно половина тех, кто пострадает от развития ИИ, может столкнуться со снижением спроса на рабочую силу и уменьшением заработной платы.
Предложение лейбористов сделать обязательным тестирование безопасности ИИ для технологических компаний представляет собой важный шаг в усилении надзора и подотчетности в быстро развивающейся области искусственного интеллекта. В то время как продолжаются дебаты о поиске правильного баланса между инновациями и безопасностью, подход Великобритании к регулированию ИИ остается предметом интенсивных дискуссий и пристального внимания на мировой арене.

