Быстрое развитие технологий искусственного интеллекта повышает вероятность полномасштабной ядерной войны, предупредил генеральный секретарь ООН Антонио Гутерриш. В записанном видеообращении Гутерриш заявил, что человечество находится «на грани», поскольку страны соревнуются в создании наиболее совершенного вооружения, подвергая опасности жизни людей.
Читайте также: Сотрудники утверждают, что OpenAI и Google DeepMind скрывают риски, связанные с ИИ.
Как сообщает Guardian, видеообращение главы ООН с предупреждением должно было быть показано на ежегодной конференции Ассоциации по контролю над вооружениями США (ACA) в Вашингтоне 7 июня. Гутерриш призвал государства, обладающие ядерным оружием, «возобновить диалог и договориться о том, что никто не будет первым, кто запустит ядерный препарат»
Гутерриш хочет, чтобы искусственный интеллект был исключен из числа источников ядерного оружия
По словам генерального секретаря, системы, созданные для предотвращения «использования, испытаний и распространения ядерного оружия», ослабли со времени окончания холодной войны более 30 лет назад.
Существуют опасения, что по мере того, как такие страны, как США и Россия, наращивают действия по сдерживанию друг друга, они могут обратиться к искусственному интеллекту для упрощения процедур запуска ядерных ракет. Сообщается, что обе страны привели свои межконтинентальные баллистические ракеты в состояние повышенной боевой готовности, то есть они готовы к запуску в течение нескольких минут после предупреждения.
В своем видеообращении к ACA Гутерриш сказал :
«Человечество находится на грани; риск применения ядерного оружия достиг невиданных со времен холодной войны высот. Государства вовлечены в качественную гонку вооружений. Такие технологии, как искусственный интеллект, многократно увеличивают опасность»
Гутерриш добавил, что «все страны должны согласиться с тем, что любое решение об использовании ядерного оружия принимается людьми, а не машинами или алгоритмами»
В 2022 году США, Великобритания и Франция опубликовали совместное заявление, в котором выразили свою приверженность обеспечению того, чтобы человек сохранял контроль над ядерным оружием во время запуска ракет. По данным отраслевых СМИ, Россия и Китай пока не взяли на себя аналогичных обязательств. Федерация американских ученых подсчитала , что количество ядерных вооружений сократилось с 70 300 в 1986 году до 12 100 в этом году.
Ученые бьют тревогу по поводу искусственного интеллекта
Предупреждение Гутерриша не ново. Многие ученые и раньше предупреждали отчете корпорации Rand за 2018 год говорилось, что развитие ИИ увеличивает риск ядерной войны. В отчете отмечалось, что интеграция ИИ, машинного обучения и анализа больших данных улучшит возможности вооруженных сил по обнаружению, trac , нанесению ударов и уничтожению ядерных сил противника.
Читайте также: Мощный ИИ угрожает человечеству: почему эксперты настаивают на глобальном моратории
В дискуссию включились и другие. Бывший руководитель отдела разработки продуктов Google Билавал Сидху считает, что к дебатам об ИИ можно отнестись крайне серьезно, либо оставить их открытыми. Он утверждал , что ИИ с открытым исходным кодом позволит добросовестным участникам контролировать действия недобросовестных, минимизируя риски.
В предыдущем интервью Newsweek бывший госсекретарь США Генри Киссинджер заявил, что искусственный интеллект «столь же важен», но «менее предсказуем», чем ядерное оружие. Киссинджер считает, что риски, связанные с ИИ, можно контролировать посредством международного сотрудничества и регулирования.
Репортаж Джеффри Гого для журнала Cryptopolitan

