Google, OpenAI и Meta договорились прекратить разработку любых моделей ИИ, если не смогут снизить риски. Компании подписали «Обязательства по безопасности ИИ» во вторник на саммите AI Seoul Summit, организованном Великобританией и Южной Кореей.
Читайте также: Великобритания и Республика Корея сотрудничают в организации саммита по искусственному интеллекту.
Это первый в мире случай, когда так много ведущих компаний в сфере искусственного интеллекта из разных уголков мира согласились взять на себя одинаковые обязательства по обеспечению безопасности ИИ.
— Премьер-министр Великобритании Риши Сунак
16 компаний, занимающихся искусственным интеллектом, согласились взять на себя обязательства по обеспечению безопасности ИИ
Согласно отчету , в общей сложности 16 компаний, занимающихся разработкой искусственного интеллекта, из США, Китая и Ближнего Востока согласились принять обязательство по обеспечению безопасности.
Microsoft, Amazon, Anthropic, Samsungtronи китайский разработчик Zhipu.ai также входят в число компаний, которые согласны со стандартами безопасности.
В рамках инициативы AI Safety все компании обязаны опубликовать свои системы обеспечения безопасности до проведения очередного Саммита по вопросам ИИ во Франции в начале 2025 года. В этих системах будет объяснено, как компании определяют риски своих моделей и какие риски считаются «недопустимыми»
Компании, занимающиеся искусственным интеллектом, откажутся от рискованных моделей ИИ
Согласно отчету, в самых крайних случаях компании «вообще не будут разрабатывать или внедрять модель или систему», если риски не удастся сдержать.
Истинный потенциал ИИ будет раскрыт только в том случае, если мы сможем контролировать риски. От всех нас зависит обеспечение безопасного развития ИИ.
— Мишель Донелан, министр технологий Великобритании
В июле 2023 года правительство США предприняло аналогичные усилия для оценки рисков и преимуществ ИИ.dent Джо Байден встретился с представителями Google, Microsoft, Meta, OpenAI, Amazon, Anthropic и Inflection, чтобы обсудить меры защиты ИИ, гарантирующие безопасность их продуктов на основе ИИ до их выпуска.
Дискуссия о безопасности ИИ вокруг OpenAI накаляется
В последние месяцы дискуссия о безопасности ИИ набирает обороты, особенно в отношении искусственного интеллекта общего назначения (AGI), который стремится имитировать человекоподобный общий интеллект.
На прошлой неделе одна из компаний, OpenAI, оказалась в центре внимания после того, как соучредитель Илья Суцкевер и топ-менеджер Ян Лейке ушли из компании. Эта пара возглавляла команду OpenAI Superalignment, созданную для предотвращения несанкционированного выхода моделей из-под контроля.
Читайте также: Еще один руководитель OpenAI, Ян Лейке, ушел в отставку.
В своем сообщении Лейке заявил, что «за последние годы культура безопасности и производственные процессы отошли на второй план, уступив место блестящим новинкам» в компании.
Нам давно пора всерьез задуматься о последствиях искусственного общего интеллекта (ИИ).
— Ян Лейке (@janleike) 17 мая 2024 г
Мы должны в первую очередь подготовиться к ним.
Только тогда мы сможем гарантировать, что ИИ принесет пользу всему человечеству.
Лейке добавил, что «OpenAI должна стать компанией, ставящей безопасность на первое место при создании искусственного общего интеллекта», и что мы должны в первую очередь подготовиться к этому, чтобы гарантировать, что искусственный общий интеллект принесет пользу всему человечеству.
Репортаж Ибиама Ваяса для издания Cryptopolitan

