Загрузка...

Срочный призыв Microsoft к законодателям и компаниям по поводу ИИ

TL;DR

  • Брэд Смит, dent Microsoft, призвал правительства быстрее принимать меры в отношении ИИ.
  • Microsoft также призвала корпорации инициировать предохранительные тормоза для технологии ИИ и разработать более всеобъемлющую нормативно-правовую базу, регулирующую ИИ.
  • Продолжаются споры о преимуществах и проблемах, связанных с внедрением ИИ.

Брэд Смит dent Microsoft , недавно призвал правительственных чиновников и законодателей к лучшему регулированию искусственного интеллекта. На этой неделе крупная шишка технологической индустрии отправилась в Вашингтон, округ Колумбия, где призвала чиновников разработать политику регулирования и обеспечения лучшего управления рисками технологий, управляющих генеративными приложениями, такими как ChatGPT.

Призыв Смита к правительствам и корпорациям

dent Microsoft призвал правительства действовать быстрее в своих нормативных актах, в то же время попросив корпорации активизироваться в условиях быстрого развития ИИ. Выступая перед группой законодателей 25 мая, Смит подчеркнул две вещи, которые должны вызывать серьезную озабоченность в Соединенных Штатах, чтобы снизить непредвиденные риски, связанные с ИИ.

 Он заявил, что первая проблема будет заключаться в том, чтобы обеспечить инновации с помощью надлежащих правил, чтобы убедить общественность в том, что существует стратегия, позволяющая делать то же самое ответственно. В недавнем твите он заявил, что «

 ИИ может стать самым значительным технологическим достижением на всю жизнь. Сегодня мы анонсировали план из 5 пунктов по управлению ИИ. Он решает текущие и возникающие проблемы, объединяет государственный и частный секторы и, таким образом, гарантирует, что инструмент служит всему обществу.

Брэд Смит

Microsoft также призвала корпорации инициировать предохранительные тормоза для технологии ИИ и разработать более всеобъемлющую нормативно-правовую базу, регулирующую ИИ; технологический гигант заявляет, что новое правительство может реализовать такую ​​политику, чтобы опередить потенциальные риски, связанные с ИИ.

Microsoft представила 40-страничный отчет в рамках деятельности в Вашингтоне, в котором излагаются различные способы регулирования технологий ИИ, а также предложения, такие как разработка механизмов, которые удерживают ИИ от обмана людей, принятие уже существующих законов для новых технологий, продвижение прозрачность разработки ИИ и внедрение систем лицензирования ИИ.

Смит подчеркнул необходимость не оставлять это регулирование только технологическим компаниям, заявив, что это должно быть общей ответственностью во вступительной части отчета, а именно: «Управление ИИ: план будущего».

Microsoft признала потенциальные риски, связанные с ИИ, говорится в отчете.

Мы должны признать простую истину, что не все участники имеют благие намерения или хорошо подготовлены для решения проблем, которые представляют высокоэффективные модели. Некоторые игроки, скорее всего, будут использовать ИИ как оружие, а не инструмент, а другие будут недооценивать стоящие перед ними проблемы безопасности.

Майкрософт

Быстрое развитие искусственного интеллекта уже представляет угрозу конфиденциальности и человеческому достоинству, поскольку убедительные фальшивые видео уже используются для распространения дезинформации в Интернете и массовых потерь рабочих мест, вызванных быстрой автоматизацией.

Настроения вспыхивают, даже когда Microsoft работает над ИИ и разрабатывает новые чипы, которые будут поддерживать ChatGPT и чат-бот OpenAI. Смит также подчеркнул, что темп имеет значение, и если Соединенные Штаты будут двигаться слишком медленно, они отстанут.

Опасения по поводу регулирования ИИ

Генеральный директор OpenAI также выразил обеспокоенность по поводу регулирования искусственного интеллекта, когда он давал показания перед Конгрессом, настаивая на создании нормативно-правовой базы для надзора за лицензированием компаний, занимающихся искусственным интеллектом, 16 мая. Это заявление было одобрено генеральным директором Microsoft, который добавил, что разработка искусственного интеллекта должна делают лицензированные центры.

Это произошло после того, как в марте некоммерческая организация Future of Life Institute опубликовала открытое письмо, в котором призвала прекратить разработку систем искусственного интеллекта помимо OpenAI GPT-4, заявив, что это может иметь серьезные риски для человечества. Письмо было засвидетельствовано более чем 1000 человек, в том числе академическими и техническими экспертами, такими как Илон Маск и Ной Харари, автор «Sapiens». Он постановил  

За последние пару лет появились новые инструменты ИИ, которые угрожают выживанию человеческой цивилизации; ИИ приобрел некоторые замечательные способности манипулировать и генерировать язык. Тем самым ИИ взломал операционную систему нашей цивилизации.

Ной Харари

Кажется необычным, что технологические компании стремятся регулировать свою деятельность; Microsoft на протяжении многих лет отстранялась, призывая к регулированию технологических разработок, таких как социальные сети. Несмотря на громкий призыв к правительствам и корпорациям, для достижения таких правил потребуются как национальные, так и международные рамки для эффективного регулирования таких технологий и снижения потенциальных рисков.

Отказ от ответственности. Предоставленная информация не является торговым советом. Cryptopolitan.com не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы tron рекомендуем провести dent исследование и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Поделиться ссылкой:

Флоренс Мухай

Флоренс — криптоэнтузиаст и писатель, который любит путешествовать. Как цифровой кочевник, она исследует преобразующую силу технологии блокчейн. Ее письмо отражает безграничные возможности человечества для общения и роста.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалюты, получайте ежедневные обновления на свой почтовый ящик.

Связанные новости

Майкл Сэйлор
Криптополит
Подпишитесь на КриптоПолитан