В недавнем заявлении главный научный сотрудник Meta по искусственному интеллекту Ян Лекун оспаривает распространенные опасения, связанные с открытым исходным кодом в области ИИ, утверждая, что террористы и государства-изгои сталкиваются с серьезными препятствиями при попытке захватить такие технологии. Лекун, известный своим пренебрежительным отношением к экзистенциальным угрозам ИИ, подчеркивает колоссальные ресурсы, необходимые для организации такого захвата, — мнение, которое он выразил в эксклюзивном интервью Стиву Леви из Wired, опубликованном 22 декабря.
ЛеКун твердо заявляет, что миру не стоит опасаться захвата власти террористами и государствами-изгоями с помощью искусственного интеллекта с открытым исходным кодом, учитывая непомерные затраты и логистические сложности, связанные с этим процессом. В своем интервью Wired он подробно описывает масштабы необходимых ресурсов, включая доступ к 2000 графическим процессорам, значительное финансирование и пул исключительных талантов — задача, которая считается неправдоподобной даже для богатых стран. Кроме того, он подчеркивает неспособность Китая доминировать в этой области из-за существующих в США запретов на экспорт чипов для ИИ.
Ресурсный барьер и геополитические ограничения
Ян Лекун поясняет, что организация глобального захвата с помощью искусственного интеллекта с открытым исходным кодом — задача непростая, прежде всего из-за значительных необходимых ресурсов. В своем интервью Wired он подчеркивает необходимость скрытой инфраструктуры, такой как доступ к 2000 графическим процессорам, а также значительной финансовой поддержки и высококвалифицированной рабочей силы. Лекун утверждает, что одних только финансовых инвестиций будет недостаточно для большинства компаний, чтобы решиться на подобное предприятие, что подтверждает непрактичность этого гипотетического сценария.
Развивая геополитический аспект, ЛеКун указывает, что даже такие могущественные страны, как Китай, сталкиваются с непреодолимыми трудностями в контроле над открытым ИИ. Это объясняется существующим эмбарго, введенным Соединенными Штатами на экспорт чипов для ИИ. Подчеркивая неспособность Китая обойти это ограничение, ЛеКун подкрепляет свой аргумент о том, что открытый ИИ — это инструмент, которым нелегко управлять любому государственному субъекту, укрепляя существующие механизмы защиты.
Поддержка искусственного интеллекта с открытым исходным кодом со стороны Meta
Приверженность Meta подходу с открытым исходным кодом в разработке ИИ подтверждается выпуском Llama 2, модели ИИ, в основном с открытым исходным кодом. 5 декабря компания еще больше укрепила свои позиции, заключив альянс с IBM для продвижения открытых инноваций и открытой науки в области ИИ. Эти согласованные усилия выделяют Meta среди конкурентов, таких как OpenAI и Google, которые склоняются к закрытым моделям. Заявления ЛеКуна соответствуют общей стратегии Meta, позиционируя компанию как сторонника доступной и прозрачной разработки ИИ.
В заявлениях Янна Лекуна неоднократно повторялась тема, когда он отвергал представление об искусственном интеллекте как об экзистенциальной угрозе человечеству. Опровергая утверждения о том, что ИИ может захватить мир, он объясняет подобные идеи проекцией человеческой природы на машины. Эта точка зрения, повторенная на пресс-конференции в Париже в июне, подчеркивает его скептицизм в отношении апокалиптических сценариев, связанных с ИИ.
В условиях, когда доминируют дискуссии о потенциальных опасностях ИИ, идеи Янна ЛеКуна бросают вызов традиционным опасениям, связанным с открытым исходным кодом ИИ. По мере того, как Meta продолжает двигаться к открытым инновациям, возникает вопрос: может ли мир действительно спокойно и уверенно полагать, dent колоссальные барьеры, обозначенные ЛеКуном, являются достаточной защитой от злонамеренного использования открытого исходного кода ИИ ? Только время покажет, но на данный момент Meta твердо придерживается своей приверженности доступному и прозрачному будущему ИИ.

