Бывший агент американской разведки, ставший информатором, Эдвард Сноуден в очередной раз разжег дискуссию об экзистенциальной угрозе искусственного интеллекта (ИИ). В недавнем выпаде в адрес пессимистов, считающих ИИ катастрофой, Сноуден подчеркнул иронию ситуации, когда опасения по поводу сценариев конца света, вызванных ИИ, возникают в то время, когда существующие технологии не оправдывают элементарных ожиданий.
В социальных сетях, в частности на платформе X, Сноуден указал на случаи, когда технологии не оправдывали своего предназначения. В частности, он привел в пример неисправности принтеров и неспособность Google предоставить точные указания, как добраться до Taco Bell. По мнению Сноудена, эти обыденные неудачи подчеркивают ошибочное внимание к потенциальной способности ИИ привести к вымиранию человечества.
Это не первый раз, когда Сноуден выражает скептицизм по поводу теорий конца света, связанных с искусственным интеллектом. Ранее в этом году он критиковал чрезмерное давление, с которым сталкиваются инженеры-программисты, работающие над проектами в области ИИ. Сноуден утверждал, что попытки затормозить развитие ИИ ошибочны, особенно когда более насущные проблемы, такие как рои дронов и военные роботы, уже представляют реальную угрозу для жизни человека.
Общественное мнение и мнения экспертов
Комментарии Сноудена прозвучали на фоне широко распространенной обеспокоенности по поводу стремительного развития технологий искусственного интеллекта. Опрос, проведенный компанией Ipsos в прошлом году, показал, что значительное большинство американцев опасаются потенциальных опасностей, связанных с ИИ. Такие деятели, как Илон Маск, Джеффри Хинтон и Ян Лекун, высказались по этому поводу, предложив различные точки зрения на риски и преимущества развития ИИ.
Илон Маск, известный своими проектами в области искусственного интеллекта и освоения космоса, неоднократно заявлял об опасностях неконтролируемого распространения ИИ. Аналогично, Джеффри Хинтон, пионер в области глубокого обучения, предупреждал, что риски, связанные с ИИ, могут перевесить риски, связанные с изменением климата. В противоположность ему, Ян Лекун, ведущая фигура в исследованиях ИИ, преуменьшал опасения по поводу сценариев конца света, вызванных ИИ, утверждая, что такие опасения преувеличены.
Скандал вокруг Google Gemini
Скандал вокруг Google Gemini спровоцировал недавние комментарии Сноудена, в которых говорилось, что чат-бот технологического гиганта генерировал предвзятые и нерелевантные изображения в ответ на определенные запросы. Этотdent вновь разжег дискуссии об этике ИИ и необходимости ответственного подхода к разработке. Критики утверждают, что подобныеdentподчеркивают потенциальную опасность бесконтрольного развития ИИ.
По мере того как дебаты о будущем ИИ продолжают набирать обороты, критика Эдварда Сноудена служит напоминанием о разрыве между общественным восприятием и технологической реальностью. Хотя опасения по поводу сценариев конца света, вызванных ИИ, сохраняются, наблюдения Сноудена подчеркивают важность решения более насущных проблем, которые создают существующие технологии. По мере того как общество пытается осмыслить последствия развития ИИ, необходимость вдумчивого обсуждения и ответственных методов разработки остается первостепенной.
По сути, хотя потенциал ИИ в революционизации различных аспектов человеческой жизни неоспорим, крайне важно подходить к его развитию с осторожностью и дальновидностью. Только тщательное рассмотрение этических последствий и упреждающие меры позволят нам в полной мере использовать потенциал ИИ, одновременно минимизируя потенциальные риски для благополучия человечества.
Переосмыслив дискурс вокруг ИИ, перейдя от страха и неуверенности к прагматизму и ответственности, мы можем проложить путь к будущему, где технологии будут служить улучшению, а не угрозе существованию человечества. Как метко напоминает нам Эдвард Сноуден, настоящая проблема заключается не в страхе перед неизвестным, а в устранении недостатков настоящего.

