Your bank is using your money. You’re getting the scraps.WATCH FREE

Google, OpenAI и еще 13 компаний обязались не внедрять рискованные модели искусственного интеллекта

В этом посте:

  • OpenAI, Microsoft, Google и еще 13 компаний, занимающихся искусственным интеллектом, согласились с новым обязательством по обеспечению безопасности ИИ, принятым властями Великобритании. 
  • В рамках данного обязательства компании обязаны прекратить разработку любых моделей, которые считаются крайне рискованными.
  • Премьер-министр Великобритании заявил, что это первый случай, когда глобальные компании, занимающиеся разработкой искусственного интеллекта, обязуются придерживаться одинаковых стандартов безопасности.

Google, OpenAI и Meta договорились прекратить разработку любых моделей ИИ, если не смогут снизить риски. Компании подписали «Обязательства по безопасности ИИ» во вторник на саммите AI Seoul Summit, организованном Великобританией и Южной Кореей.

Читайте также: Великобритания и Республика Корея сотрудничают в организации саммита по искусственному интеллекту.

Это первый в мире случай, когда так много ведущих компаний в сфере искусственного интеллекта из разных уголков мира согласились взять на себя одинаковые обязательства по обеспечению безопасности ИИ. 

— Премьер-министр Великобритании Риши Сунак

16 компаний, занимающихся искусственным интеллектом, согласились взять на себя обязательства по обеспечению безопасности ИИ

Согласно отчету , в общей сложности 16 компаний, занимающихся разработкой искусственного интеллекта, из США, Китая и Ближнего Востока согласились принять обязательство по обеспечению безопасности.

Microsoft, Amazon, Anthropic, Samsungtronи китайский разработчик Zhipu.ai также входят в число компаний, которые согласны со стандартами безопасности. 

Читайте также: Alibaba и Tencent инвестируют 342 миллиона долларов в стартап в области искусственного интеллекта Zhipu

В рамках инициативы AI Safety все компании обязаны опубликовать свои системы обеспечения безопасности до проведения очередного Саммита по вопросам ИИ во Франции в начале 2025 года. В этих системах будет объяснено, как компании определяют риски своих моделей и какие риски считаются «недопустимыми»

Компании, занимающиеся искусственным интеллектом, откажутся от рискованных моделей ИИ

Согласно отчету, в самых крайних случаях компании «вообще не будут разрабатывать или внедрять модель или систему», если риски не удастся сдержать. 

Истинный потенциал ИИ будет раскрыт только в том случае, если мы сможем контролировать риски. От всех нас зависит обеспечение безопасного развития ИИ. 

— Мишель Донелан, министр технологий Великобритании

В июле 2023 года правительство США предприняло аналогичные усилия для оценки рисков и преимуществ ИИ.dent Джо Байден встретился с представителями Google, Microsoft, Meta, OpenAI, Amazon, Anthropic и Inflection, чтобы обсудить меры защиты ИИ, гарантирующие безопасность их продуктов на основе ИИ до их выпуска.

См. также  «Влияние ИИ на экономику стран БРИКС: возможности и вызовы»

Дискуссия о безопасности ИИ вокруг OpenAI накаляется

В последние месяцы дискуссия о безопасности ИИ набирает обороты, особенно в отношении искусственного интеллекта общего назначения (AGI), который стремится имитировать человекоподобный общий интеллект. 

На прошлой неделе одна из компаний, OpenAI, оказалась в центре внимания после того, как соучредитель Илья Суцкевер и топ-менеджер Ян Лейке ушли из компании. Эта пара возглавляла команду OpenAI Superalignment, созданную для предотвращения несанкционированного выхода моделей из-под контроля. 

Читайте также: Еще один руководитель OpenAI, Ян Лейке, ушел в отставку.

В своем сообщении Лейке заявил, что «за последние годы культура безопасности и производственные процессы отошли на второй план, уступив место блестящим новинкам» в компании. 

Лейке добавил, что «OpenAI должна стать компанией, ставящей безопасность на первое место при создании искусственного общего интеллекта», и что мы должны в первую очередь подготовиться к этому, чтобы гарантировать, что искусственный общий интеллект принесет пользу всему человечеству.


Репортаж Ибиама Ваяса для издания Cryptopolitan

Вы всё ещё позволяете банку оставлять себе лучшие результаты? Посмотрите наше бесплатное видео о том, как стать собственным банком .

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitan не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы настоятельно tron провести независимое dent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan