Белый дом рассматривает возможность предварительной проверки моделей ИИ перед их выпуском, осваивая новые горизонты в сфере контроля за технологиями

- Теперь Белый дом хочет проверять модели искусственного интеллекта, прежде чем они будут опубликованы.
- По имеющимся данным, администрация рассматривает возможность издания указа о создании рабочей группы по искусственному интеллекту, которая будет контролировать процедуры надзора за ИИ.
- Регуляторы опасаются, что системы искусственного интеллекта теперь могут выявлять большое количество уязвимостей в операционных системах и веб-браузерах.
Белый дом рассматривает план по проверке некоторых из самых мощных систем искусственного интеллекта до их публичного выпуска.
Предложение, о котором впервые сообщила газета The New York Times 4 мая, предусматривает введение федерального контроля на критическом этапе жизненного цикла ИИ, непосредственно перед его внедрением. Чиновники все больше обеспокоены тем, что передовые модели уже способны выявлятьdentиспользовать уязвимости в программном обеспечении, лежащем в основе важнейшей инфраструктуры.
Анализ, опубликованный изданием The Conversation, указывает на растущее количество свидетельств того, что современные системы искусственного интеллекта способны выявлять большое количество уязвимостей в операционных системах и веб-браузерах. Эта возможность, хотя и ценна для обеспечения безопасности, также повышает риски в случае неправомерного использования таких инструментов или попадания их в чужие руки.
Возможности модели побуждают к пересмотру политики
Обсуждение политики компании Anthropic обострилось после того, как она решила отложить более широкий выпуск своей последней модели, Mythos. Внутреннее тестирование выявило расширенные возможности кибербезопасности, включая возможность обнаруженияdentуязвимостей, которые можно использовать в своих целях. В ответ компания ограничила доступ к системе для ограниченной группы организаций, ответственных за критическую инфраструктуру, в рамках своей инициативы «Проект Glasswing».
Как сообщает The Conversation, Белый дом вмешался, когда компания Anthropic начала изучать возможность расширения доступа, что свидетельствует о более активном подходе к надзору за ИИ, даже несмотря на то, что общая политика в сфере технологий остается относительно ориентированной на рынок.
Обеспокоенность вызывает не только одна компания или система. Британский институт безопасности ИИ сообщил в апрельском отчете
В одном из тестов, проведенных институтом, модель, воспроизводя созданную пользователем виртуальную машину, решила сложную задачу за считанные минуты, что намного быстрее, чем это сделал бы эксперт-человек, использующий профессиональные инструменты.
«Ключевой вопрос заключался в том, отражает ли это прорыв, характерный именно для одной модели, или же это часть более широкой тенденции», — говорится в отчете института. «Результаты предварительного этапа тестирования GPT-5.5 указывают на последнее»
В совокупности полученные результаты свидетельствуют о том, что эти возможности становятся распространенной особенностью ведущих систем искусственного интеллекта, а не единичным прорывом.
Проблемы безопасности ИИ приобретают геополитическое измерение
Последствия выходят за рамки технологий и затрагивают национальную безопасность. Исследователи, на которых ссылается издание The Conversation, предупреждают, что связанные с государством группы могут использовать аналогичные инструменты для проведения киберопераций, потенциально нацеленных на инфраструктуру или экономические системы.
Уже наблюдаются первые признаки этого сдвига. Компания Anthropic сообщила о предполагаемом использовании её моделей поддерживаемыми государством субъектами в шпионских кампаниях, затрагивающих десятки организаций. Тем временем Microsoft и OpenAI заявили в 2024 году, что связанные с правительством группы используют ИИ для усиления кибератак.
В то же время исследователи все еще пытаются найти надежный способ управления этими системами. В работах, цитируемых изданием The Conversation, предполагается, что фильтры безопасности, применяемые после обучения, можно обойти, а некоторые модели могут казаться соответствующими требованиям, не устраняя полностью рискованные возможности.
Это привело к тому, что среди политиков растет мнение о необходимости внедрения мер безопасности на этапе разработки модели, а не их добавления позднее.
Перспективы политики: фрагментированные рамки, растущее давление
Предложение США формируется в рамках более широкой, все еще развивающейся глобальной нормативно-правовой базы:
- Закон ЕС об искусственном интеллекте устанавливает систему оценки рисков со строгими требованиями к приложениям с высоким уровнем риска, хотя он и не предусматривает централизованного утверждения для перспективных моделей.
- Великобритания опирается на добровольное сотрудничество через Британский институт безопасности ИИ, уделяя особое внимание партнерским программам тестирования и оценки с разработчиками.
- В США, похоже, наблюдается тенденция к прямому контролю над наиболее передовыми системами, возможно, посредством предварительной проверки перед выпуском.
Законодатели начали более внимательно изучать эти вопросы, проведя в апреле слушания в Конгрессе по вопросам безопасности и управления ИИ, хотя всеобъемлющий законопроект пока не принят.
Внедрение системы предварительного рассмотрения дел об освобождении заключенных в США будет означать переход к более раннему вмешательству, осуществляя надзор на этапе, когда риски можно предвидеть, а не после того, как они материализуются.
Подобный шаг может установить неофициальный глобальный стандарт, особенно учитывая концентрацию ведущих разработчиков ИИ в Соединенных Штатах. В то же время, это повышает вероятность того, что компании могут перенести часть разработки или внедрения в регионы с меньшими ограничениями.
Задача, стоящая перед политиками, заключается в том, чтобы сбалансировать инновации с управлением рисками в области, где возможности быстро развиваются, а последствия злоупотребления могут быть далеко идущими.
На данный момент наиболее конкретные меры защиты остаются добровольными. Такие компании, как Anthropic, ограничивают доступ к конфиденциальным системам, а такие организации, как UK AI Safety Institute, продолжают проводитьdent оценки.
То, формализуют ли Соединенные Штаты свой подход — и присоединятся ли к нему другие страны — станет ключевым фактором в формировании регулирования искусственного интеллекта в ближайшие годы.
Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно.
Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)















