Кампания по оказанию давления на правительства с целью достижения согласия по обязательным международным ограничениям для пресечения злоупотреблений технологиями искусственного интеллекта вышла на уровень ООН, поскольку более 200 ведущих политиков, ученых и общественных деятелей, включая 10 лауреатов Нобелевской премии, выступили с предупреждением о рисках, связанных с этой технологией.
Заявление, опубликованное в понедельник на открытии Недели высокого уровня Генеральной Ассамблеи ООН, получило название «Глобальный призыв к установлению красных линий в отношении ИИ». В нем утверждается, что «нынешняя траектория развития ИИ представляетdentопасность», и содержится требование к странам работать над международным соглашением о четких, поддающихся проверке ограничениях к концу 2026 года.
Лауреаты Нобелевской премии выступили с призывом в ООН.
Об этом призыве сообщила лауреат Нобелевской премии мира и журналистка Мария Ресса, которая в своем вступительном слове призвала правительства «предотвратить неприемлемые для всех риски» и defi, что искусственному интеллекту никогда нельзя позволять делать.
В числе подписавших заявление — лауреаты Нобелевской премии по химии, экономике, миру и физике, а также известные писатели, такие как Стивен Фрай и Юваль Ноа Харари. Свои имена также упомянули бывшийdent Ирландии Мэри Робинсон и бывшийdent Колумбии Хуан Мануэль Сантос, также лауреат Нобелевской премии мира.
Джеффри Хинтон и Йошуа Бенджио, широко известные как «крестные отцы ИИ» и лауреаты премии Тьюринга, которая по праву считается Нобелевской премией в области компьютерных наук, также подписали это заявление.
«Это поворотный момент, — сказал Харари. — Прежде чем эта технология изменит общество до неузнаваемости и разрушит основы нашей человечности, люди должны договориться о четких «красных линиях» в отношении ИИ»
Предыдущие попытки привлечь внимание к проблеме ИИ часто были сосредоточены на добровольных обязательствах компаний и правительств. В марте 2023 года более 1000 технологических лидеров, включая Илона Маска, призвали приостановить разработку мощных систем ИИ. Несколько месяцев спустя руководители компаний, занимающихся ИИ, такие как Сэм Альтман из OpenAI и из Google DeepMind, подписали краткое заявление, в котором экзистенциальные риски ИИ были приравнены к рискам ядерной войны и пандемий.
Искусственный интеллект разжигает страх перед экзистенциальными и социальными рисками
Буквально на прошлой неделе искусственный интеллект был замешан в делах, начиная от самоубийства подростка и заканчивая сообщениями о его использовании для манипулирования общественными дебатами.
Участники призыва утверждают, что эти непосредственные риски вскоре могут быть затменены более масштабными угрозами. Комментаторы предупреждают, что передовые системы искусственного интеллекта, если их не контролировать, могут привести к массовой безработице, искусственно созданным пандемиям или систематическимmatic прав человека.
В список запрещенных пунктов входят, в частности, запрет на смертоносное автономное оружие, запрет на самовоспроизводящиеся системы искусственного интеллекта и обеспечение того, чтобы ИИ никогда не применялся в ядерной войне.
«В наших общих жизненно важных интересах предотвратить нанесение человечеству серьезного и потенциально необратимого ущерба со стороны ИИ, и мы должны действовать соответствующим образом», — заявил Ахмет Узумджю, бывший генеральный директор Организации по запрещению химического оружия, под руководством которой в 2013 году была присуждена Нобелевская премия мира.
Более 60 организаций гражданского общества подписали письмо, в том числе британский аналитический центр Demos и Пекинский институт безопасности и управления ИИ. Координацией этой работы занимаются три некоммерческие организации: Центр человекосовместимого ИИ при Калифорнийском университете в Беркли; организация The Future Society; и Французский центр безопасности ИИ.
Несмотря на недавние заявления о безопасности от таких компаний, как OpenAI и Anthropic, которые согласились на государственное тестирование моделей перед выпуском, исследования показывают, что фирмы выполняют лишь около половины своих обязательств.
«Мы не можем позволить себе ждать, — сказала Ресса. — Мы должны действовать, прежде чем искусственный интеллект выйдет за рамки нашей способности его контролировать»

