Your bank is using your money. You’re getting the scraps.WATCH FREE

Лауреаты Нобелевской премии присоединились к политикам и ученым в настоятельном призыве ограничить опасное использование искусственного интеллекта

В этом посте:

  • Более 200 лидеров, включая 10 лауреатов Нобелевской премии и ведущих исследователей в области искусственного интеллекта, призывают к введению обязательных международных ограничений на опасное использование ИИ к 2026 году.
  • Предлагаемые запреты включают в себя смертоносное автономное оружие, самовоспроизводящийся искусственный интеллект и использование ИИ в ядерной войне.
  • В глобальном призыве, обнародованном на Генеральной Ассамблее ООН, подчеркивается, что добровольных обязательств со стороны компаний, занимающихся искусственным интеллектом, недостаточно.

Кампания по оказанию давления на правительства с целью достижения согласия по обязательным международным ограничениям для пресечения злоупотреблений технологиями искусственного интеллекта вышла на уровень ООН, поскольку более 200 ведущих политиков, ученых и общественных деятелей, включая 10 лауреатов Нобелевской премии, выступили с предупреждением о рисках, связанных с этой технологией.

Заявление, опубликованное в понедельник на открытии Недели высокого уровня Генеральной Ассамблеи ООН, получило название «Глобальный призыв к установлению красных линий в отношении ИИ». В нем утверждается, что «нынешняя траектория развития ИИ представляетdentопасность», и содержится требование к странам работать над международным соглашением о четких, поддающихся проверке ограничениях к концу 2026 года.

Лауреаты Нобелевской премии выступили с призывом в ООН.

Об этом призыве сообщила лауреат Нобелевской премии мира и журналистка Мария Ресса, которая в своем вступительном слове призвала правительства «предотвратить неприемлемые для всех риски» и defi, что искусственному интеллекту никогда нельзя позволять делать.

В числе подписавших заявление — лауреаты Нобелевской премии по химии, экономике, миру и физике, а также известные писатели, такие как Стивен Фрай и Юваль Ноа Харари. Свои имена также упомянули бывшийdent Ирландии Мэри Робинсон и бывшийdent Колумбии Хуан Мануэль Сантос, также лауреат Нобелевской премии мира.

Джеффри Хинтон и Йошуа Бенджио, широко известные как «крестные отцы ИИ» и лауреаты премии Тьюринга, которая по праву считается Нобелевской премией в области компьютерных наук, также подписали это заявление.

См. также:  BYD приостанавливает производство и планы расширения в Китае на фоне низких продаж.

«Это поворотный момент, — сказал Харари. — Прежде чем эта технология изменит общество до неузнаваемости и разрушит основы нашей человечности, люди должны договориться о четких «красных линиях» в отношении ИИ»

Предыдущие попытки привлечь внимание к проблеме ИИ часто были сосредоточены на добровольных обязательствах компаний и правительств. В марте 2023 года более 1000 технологических лидеров, включая Илона Маска, призвали приостановить разработку мощных систем ИИ. Несколько месяцев спустя руководители компаний, занимающихся ИИ, такие как Сэм Альтман из OpenAI и из Google DeepMind, подписали краткое заявление, в котором экзистенциальные риски ИИ были приравнены к рискам ядерной войны и пандемий.

Искусственный интеллект разжигает страх перед экзистенциальными и социальными рисками

Буквально на прошлой неделе искусственный интеллект был замешан в делах, начиная от самоубийства подростка и заканчивая сообщениями о его использовании для манипулирования общественными дебатами.

Участники призыва утверждают, что эти непосредственные риски вскоре могут быть затменены более масштабными угрозами. Комментаторы предупреждают, что передовые системы искусственного интеллекта, если их не контролировать, могут привести к массовой безработице, искусственно созданным пандемиям или систематическимmatic прав человека.

В список запрещенных пунктов входят, в частности, запрет на смертоносное автономное оружие, запрет на самовоспроизводящиеся системы искусственного интеллекта и обеспечение того, чтобы ИИ никогда не применялся в ядерной войне.

«В наших общих жизненно важных интересах предотвратить нанесение человечеству серьезного и потенциально необратимого ущерба со стороны ИИ, и мы должны действовать соответствующим образом», — заявил Ахмет Узумджю, бывший генеральный директор Организации по запрещению химического оружия, под руководством которой в 2013 году была присуждена Нобелевская премия мира.

См. также:  Разработчик GTA 3 рассказывает о том, какmatic появилась культовая камера

Более 60 организаций гражданского общества подписали письмо, в том числе британский аналитический центр Demos и Пекинский институт безопасности и управления ИИ. Координацией этой работы занимаются три некоммерческие организации: Центр человекосовместимого ИИ при Калифорнийском университете в Беркли; организация The Future Society; и Французский центр безопасности ИИ.

Несмотря на недавние заявления о безопасности от таких компаний, как OpenAI и Anthropic, которые согласились на государственное тестирование моделей перед выпуском, исследования показывают, что фирмы выполняют лишь около половины своих обязательств.

«Мы не можем позволить себе ждать, — сказала Ресса. — Мы должны действовать, прежде чем искусственный интеллект выйдет за рамки нашей способности его контролировать»

Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно.

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan