Бывшийdent США Дональд Трамп выразил серьезную обеспокоенность по поводу растущего влияния искусственного интеллекта (ИИ) и усиливающейся угрозы, исходящей от созданных с помощью ИИ дипфейк-видео. В недавнем интервью Марии Бартиромо из Fox Business Трамп подчеркнул острую необходимость действий в связи с этим быстро развивающимся технологическим процессом, предупредив оdentрисках и проблемах безопасности.
В своем откровенном интервью Дональд Трамп не стал скрывать, назвав искусственный интеллект «возможно, самой опасной вещью в мире». Он подчеркнул серьезность ситуации , указав на отсутствие жизнеспособного решения для противодействия надвигающимся угрозам. Опасения Трампа связаны с широким распространением искусственного интеллекта, особенно генеративного ИИ, который с момента своего публичного появления демонстрирует экспоненциальный рост.
Одним из тревожных последствий стремительного развития ИИ является распространение дипфейк-видео. Эти обманные манипуляции, созданные алгоритмами ИИ, могут убедительно имитировать отдельных людей, включая политических деятелей. Сам Трамп стал жертвой инцидента с дипфейком dent рассказав, как его обманом заставили произнести речь в поддержку продукта, который он не мог отличить от конкурентов.
Подстрекательство к конфликтам и дезинформация
Беспокойство Трампа по поводу ИИ и дипфейков распространяется и на их потенциальное использование для разжигания конфликтов. Он призвал к немедленным действиям по решению этой проблемы, но подчеркнул сложность обнаружения дипфейков даже для экспертов. Это мнение перекликается с опасениями Организации Объединенных Наций и ее Генерального секретаря, которые призвали заинтересованные стороны принять срочные меры для обеспечения ответственного и этичного использования ИИ, особенно в борьбе с дезинформацией, разжиганием ненависти и угрозами безопасности.
Председатель Комиссии по ценным бумагам и биржам США Гэри Генслер разделяет опасения Трампа. Он считает, что, хотя действующие законы надежны, появление дипфейков, созданных с помощью ИИ, ставит их под сомнение. Генслер подчеркнул, что использование ИИ для создания дипфейков представляет существенный риск для финансовых рынков, и заявил: «Мошенничество есть мошенничество»
Обязательства OpenAI по борьбе с дезинформацией
Признавая критическую важность борьбы с дезинформацией в современном цифровом пространстве, компания OpenAI недавно изложила свою стратегию использования ChatGPT для противодействия ложным сведениям в преддверии выборов 2024 года. OpenAI подчеркнула свою приверженность безопасности платформы, прозрачности и распространению точной информации о голосовании.
В своем интервью Трамп уточнил, что этот вопрос требует немедленного внимания. Он отметил способность ИИ перестраивать элементы таким образом, что даже эксперты не могут отличить реальный контент от сфабрикованного. Этот тревожный аспект представляет собой серьезную угрозу безопасности и подчеркивает необходимость быстрых и эффективных мер.
Ответ международного сообщества
Обеспокоенность, высказанная Трампом и компанией Gensler, находит отклик у международных организаций, таких как Организация Объединенных Наций, которые внимательно следят за стремительным развитием технологий искусственного интеллекта. В докладе ООН подчеркивается важность ответственного, безопасного и этичного использования ИИ, особенно учитывая его потенциал для создания и распространения дезинформации.
Недавние заявления бывшегоdent США Дональда Трампа об угрозах, исходящих от искусственного интеллекта и дипфейк-видео, подчеркнули неотложность решения этой проблемы. Его опасения по поводу потенциальной возможности ИИ провоцировать конфликты и сложности обнаружения дипфейков привлекли внимание к необходимости незамедлительных действий.
Предупреждения Гэри Генслера о влиянии дипфейков на финансовые рынки еще раз подчеркивают опасность, связанную с этой технологией. Компания OpenAI предприняла шаги по борьбе с дезинформацией в преддверии предстоящих выборов 2024 года.
В условиях постоянно меняющегося ландшафта искусственного интеллекта и дипфейков мировому сообществу настоятельно рекомендуется объединить усилия для поиска эффективных решений, позволяющих снизить эти риски и обеспечить ответственное и этичное использование ИИ в различных областях. Серьезность этой проблемы очевидна, и призыв к действию звучит убедительно.

