Технологический прогресс в области искусственного интеллекта привел к тому, что его применение в качестве фильтра на выборах становится этической проблемой, поскольку затрагивается вопрос влияния ИИ на результаты выборов.
Предупреждение и оценка Microsoft
Подразделение Microsoft по анализу угроз в своем отчете указало, что Китай, возможно, представляет наибольшую угрозу со стороны спонсируемых государством хакерских групп в период выборов 2024 года, и проникновение в избирательную систему, вероятно, станет тем путем, который Северная Корея может использовать для доступа к системам государственных избирательных органов. Однако это предупреждение последовало после того, как Китай использовал искусственный интеллект наdentвыборах на Тайване для влияния на результаты выборов.
При разработке и реализации плана также использовались технологии искусственного интеллекта, поскольку часть контента, созданного с помощью ИИ, например, фальшивые аудио-поддержки, мемы и т. д., выставляла некоторых кандидатов в невыгодном свете или влияла на избирателей определенным образом. Соединенные Штаты также пытались использовать Китай в своей политике. Согласно отчету, китайские группы проводили аналогичные кампании дезинформации против определенных групп избирателей, но одновременно публиковали материалы, имеющие партийную направленность. Напротив, исследования по этой теме не могут предоставить достаточных доказательств в поддержку их идеи о том, что это вызвало столь масштабное изменение общественного мнения.
В преддверии праймериз Демократической партии в Нью-Гэмпшире в 2024 году было опубликовано голосовое сообщение, сгенерированное искусственным интеллектом и замаскированное под голосdent Джо Байдена, с призывом к потенциальным избирателям не участвовать в выборах. Хотя утверждается, что этот случай не связан с Китаем и призван показать угрозу демократии, исходящую от ИИ, он демонстрирует потенциальную угрозу демократическим нормам, исходящую от ИИ.
Последствия для выборов в Индии
Подобно Соединенным Штатам, гдеdentвыборы начнутся 19 апреля, вмешательство ИИ в выборы в Индии рассматривается как угроза. Это ясно показывает, что с увеличением числа кибератак возникает настоятельная необходимость усиления мер предосторожности для защиты индийских выборов от кибератак. Весь этот процесс состоит из семи этапов, поэтому опасения по поводу роли ИИ во вмешательстве в процесс голосования кажутся вполне оправданными в период с 19 апреля по 1 июня.
Индия, крупнейшая в мире демократия, сталкивается с различными проблемами в сохранении стабильности своей избирательной системы и защите от вмешательства извне. Контент, созданный с помощью ИИ, может манипулировать восприятием избирателей и, как ни парадоксально, привести к тому, что аудитория потеряет веру в выборы, поскольку он игнорирует легитимность демократического процесса.
Одним из ключевых аспектов глобальной тенденции массовых выборов является опасность, которую представляет контент, созданный искусственным интеллектом. Правительства, поставщики технологий и правозащитные организации должны решать этот вопрос на самом высоком уровне. Необходимы скоординированные усилия для разработки серьезной инициативы, которая бы незамедлительно выявляла и пресекала распространение подобных фейков. Поэтому абсолютным приоритетом предстоящих выборов в Индии должно стать обеспечение справедливого, честного и прозрачного процесса. Основные элементы должны гарантировать защиту от манипуляций со стороны ИИ, а также проведение образовательных, информационных, цифровых кампаний и мероприятий по повышению осведомленности избирателей для сохранения демократии в цифровую эпоху.
Это серьёзная угроза, даже возможность подорвать основы демократии и честности в избирательном процессе. Постоянное наблюдение за сетями и активная позиция заинтересованных сторон способствуют сотрудничеству между участниками процесса для предотвращения ущерба, который распространение ложной информации может нанести идее хорошей демократии.

