Бурное развитие искусственного интеллекта (ИИ) наполняет наш мир либо идеалистическими мечтами, либо предсказаниями конца света, однако ни то, ни другое не отражает реальной угрозы.
Мы не сталкиваемся с «большим восстанием роботов», когда ИИ или роботы устраивают враждебный захват. Забудьте о сценах из «Терминатора» или «Матрицы» — этого не предвидится. Технологии, позволяющей ИИ завоевать мир, не существует.
ИИ может преуспевать в выполнении определенных задач, например, в синтезе белков или игре в шахматы, но он не способен создавать армии или управлять государствами.
Однако отсутствие восстания роботов не означает, что мы в безопасности. ИИ незаметно проникает в нашу жизнь менееmatic, но не менее действенным способом: цифровой бюрократией.
Настоящая опасность — не роботы-убийцы, а проникновение ИИ в процесс принятия решений, контролирующих нашу повседневную жизнь. Люди эволюционировали, чтобы бояться ощутимых угроз. Вспомните крупных хищников, таких как львы и акулы.
Но мы менее подготовлены к выявлению угроз, исходящих от бумажной волокиты, документов и бюрократии. Сама бюрократия — относительно новое изобретение, появившееся всего 5000 лет назад с появлением письменности.
До появления письменности право собственности, например, зависело от соглашения общины. Если вы «владели» участком земли, это означало, что ваши соседи его уважали. Никаких документов не требовалось.
От глиняных табличек до цифровых бюрократов
Всё изменилось, когда люди начали использовать глиняные таблички и записи. Письменные документы означали, что права собственности больше не зависели от общественного согласия, а основывались на официальных документах. Древние Месопотамийцы превратили комья глины в официальные символы собственности, перевернув само понятие собственности.
Судебное решение может быть основано на глиняной табличке, подтверждающей ваше право собственности на участок земли, даже если община с этим не согласна. Перенесёмся в наши дни: наши системы по-прежнему построены на тех же принципах, только теперь вместо глины мы используем кремниевые чипы и цифровые записи.
Этот сдвиг преобразил структуры власти. Право собственности стало предметом продажи и обмена без согласия местного сообщества. Возникла бюрократия, сделавшая возможным сбор налогов, финансирование армии и существование центрального правительства.
Бюрократы стали важнейшими игроками в этих системах, используя записи, формы и штампы для управления армиями, распределения ресурсов и даже контроля за законами. Эти бюрократические системы привели к появлению централизованных государств с широким контролем над своим населением, который теперь переходит к искусственному интеллекту.
Искусственному интеллекту не нужно создавать армию роботов; ему достаточно освоить бюрократические системы. В этих рамках ИИ способен принимать более влиятельные решения, чем любой человек, как это видно уже сегодня. ИИ уже решает, получим ли мы кредиты, предложения о работе, поступим ли в колледж и даже поставим ли нам диагноз.
Представьте себе банкиров с искусственным интеллектом, определяющих право на получение кредита, судей с искусственным интеллектом, выносящих решения по судебным делам, или военных с искусственным интеллектом, рассчитывающих цели для ударов. Искусственному интеллекту не нужно восстание роботов. Бюрократическая власть, которую он унаследовал, уже огромна.
ИИ в социальных сетях и общественном влиянии
Алгоритмы социальных сетей, хоть и примитивны, уже обладают огромной мощью. Алгоритмы ИИ, особенно в Facebook, X (ранее Twitter), YouTube и TikTok, созданы с одной целью: вовлеченностью пользователей. Чем дольше люди остаются на этих платформах, тем больше денег получают корпорации.
Путём проб и ошибок, проведённых с участием миллиардов пользователей, эти алгоритмы выяснили, что провоцирование таких эмоций, как жадность, гнев и страх, повышает вовлечённость. Нажимая на эти эмоциональные кнопки, они удерживают пользователей на крючке.
Эти алгоритмы не ограничились оптимизацией времени, проведённого онлайн. Они пошли дальше, обнаружив, что контент, вызывающий сильные эмоции, повышает вовлечённость пользователей. Это открытие привело к распространению теорий заговора, дезинформации и социальному расколу.
Сегодняшний мир переполнен цифровым возмущением, нагнетанием страха и поляризацией благодаря алгоритмам, которые ставят клики выше сплочённости. Эксплуатируя эмоциональные триггеры, алгоритмы социальных сетей подпитывают сегодняшнюю эпидемию теорий заговора и фейковых новостей.
Эти алгоритмические «решающие» устройства не являются изначально вредоносными. Напротив, они оптимизированы для эффективного выполнения своих функций. Однако их решениям не хватает человеческой интуиции или контекста, которые мы обычно ожидаем в столь важных областях.
ИИ может принимать более быстрые и последовательные решения, но если что-то пойдёт не так, последствия могут быть катастрофическими. Этот потенциальный риск уже проявился на примере влияния социальных сетей на общество, демонстрируя, к чему может привести неконтролируемая мощь ИИ.
Байден устанавливает правила использования искусственного интеллекта для Пентагона и разведывательных служб
dent Джо Байден объявил о меморандуме по национальной безопасности, содержащем новые правила использования ИИ в сфере национальной безопасности, запрещающие Пентагону и разведывательным службам использовать ИИ способами, противоречащими демократическим ценностям.
Это первая директива, определяющая роль ИИ в обеспечении национальной безопасности. Новые правила будут стимулировать эксперименты с ИИ, одновременно гарантируя, что государственные органы не будут использовать ИИ для нарушения таких прав, как свобода слова, или подрыва ядерного контроля.
«Наш меморандум задаёт первую в истории общеправительственную структуру по нашим обязательствам в области управления рисками, связанными с ИИ», — заявил советник по национальной безопасности Джейк Салливан. Он обозначил цели, направленные на предотвращение предвзятости, обеспечение подотчётности и обеспечение человеческого контроля за ИИ в ответственных сферах.
Хотя эти правила не имеют обязательной юридической силы, они охватывают такие аспекты национальной безопасности, как кибербезопасность, контрразведка и логистика в военных операциях. В прошлом году Байден также ввёл экспортный контроль, что замедлило развитие искусственного интеллекта в Китае, ограничив доступ к технологиям.
В соответствии с директивой Институт безопасности ИИ в Вашингтоне будет отвечать за проверку инструментов ИИ для предотвращения их ненадлежащего использования перед их выпуском, а разведывательное сообщество США будет уделять первоочередное внимание мониторингу достижений ИИ в других странах.

