Илья Суцкевер, видная фигура в мире искусственного интеллекта, в последнее время часто попадает в заголовки новостей из-за своего осторожного подхода к разработке ИИ, особенно в контрасте с рискованной позицией Сэма Альтмана, генерального директора OpenAI .
Эта дихотомия взглядов привела к значительным перестановкам в руководстве организации. В этой статье мы подробно рассмотрим биографию, карьеру Ильи Суцкевера и факторы, подпитывающие его скептицизм в отношении ИИ.
Илья Суцкевер родился в Советской России в 1986 году и с пяти лет жил в Иерусалиме. Его академический путь привёл его в Университет Торонто, где в 2005 году он получил степень бакалавра наук поmatic, а в 2007 году — степень магистра наук по информатике.
Он продолжил свой путь к знаниям и в 2013 году получил степень доктора философии в области компьютерных наук. Ранние работы Суцкевера в Университете Торонто были отмечены экспериментальным программным обеспечением, генерирующим бессмысленные записи, похожие на статьи из Википедии.
Карьера Суцкевера совершила значительный поворот в 2012 году, когда он в соавторстве с Алексом Крижевским и Джеффри Хинтоном, своим научным руководителем, которого часто называют «крестным отцом ИИ», опубликовал новаторскую статью. Это сотрудничество привело к созданию AlexNet, алгоритма глубокого обучения, продемонстрировавшегоdentвозможности распознавания образов. Этот проект, получивший название AlexNet, показал огромный потенциал глубокого обучения в решении задач распознавания образов.
Переход в Google и вклад
Впечатлённая их новаторской работой, компания Google быстро приняла Суцкевера и его коллег-исследователей на работу. В Google Суцкевер продолжил расширять границы возможностей искусственного интеллекта. Он расширил возможности распознавания образов AlexNet с изображений на слова и предложения, продемонстрировав универсальность этой технологии. Кроме того, он сыграл ключевую роль в разработке TensorFlow, передовой платформы с открытым исходным кодом для машинного обучения.
Менее чем за три года работы в Google Илья Суцкевер был переманен Илоном Маском, генеральным директором Tesla, в качестве соучредителя и главного научного сотрудника некоммерческой компании OpenAI, занимающейся искусственным интеллектом. Маск, один из соучредителей OpenAI, разделял опасения Суцкевера по поводу потенциальных опасностей ИИ. Уход Маска из OpenAI в 2018 году, сославшись на конфликт интересов с Tesla, оставил Суцкевера во главе организации.
Растёт осторожность в отношении безопасности ИИ
За время работы в OpenAI Суцкевер уделял все больше внимания безопасности ИИ. Он выступал за выделение большего количества ресурсов внутри компании для решения проблем, связанных с рисками, возникающими при использовании систем ИИ. В частности, он возглавлял команду Superalignment в OpenAI, которая выделила 20% вычислительных мощностей на управление рисками, связанными с ИИ.
Конфликт между осторожным подходом Суцкевера и стремлением Сэма Альтмана к быстрому развитию ИИ достиг апогея внутри руководства OpenAI. Суцкевер и члены совета директоров, разделявшие его взгляды, организовали отстранение Альтмана, временно заменив его Эмметтом Широм, который придерживался более осторожной позиции. Однако это решение оказалось недолгим, поскольку Суцкевер позже выразил сожаление по поводу своей роли в произошедшем, что привело к восстановлению Альтмана в должности генерального директора.
Скептицизм Ильи Суцкевера в отношении безопасности ИИ глубоко укоренен в его убеждении в потенциальной опасности бесконтрольного развития ИИ. Он выражал обеспокоенность по поводу быстрого внедрения мощных моделей ИИ, таких как ChatGPT, и необходимости надежных мер безопасности.
Преданность Суцкевера обеспечению ответственного развития ИИdent в его заявлениях сотрудникам OpenAI, где он подчеркнул важность того, чтобы ощущать влияние ИИ (искусственного общего интеллекта) в повседневной жизни.
Сбалансированный оптимизм и цинизм
Взгляды Суцкевера на ИИ характеризуются уникальным сочетанием оптимизма и цинизма. Он видит в ИИ решение многих современных проблем человечества, включая безработицу, болезни и бедность. Однако он признает потенциальные негативные последствия, предупреждая о таких проблемах, как распространение фейковых новостей, экстремальные кибератаки и разработка полностью автоматизированного оружия на основе ИИ. Его опасения распространяются и на управление искусственным интеллектом, подчеркивая важность правильного программирования для предотвращения нежелательных последствий.
В отличие от некоторых крайних взглядов в сообществе ИИ, предсказывающих катастрофические сценарии, Суцкевер придерживается более умеренной точки зрения. Он сравнивает отношения между людьми и искусственным интеллектом с тем, как люди взаимодействуют с животными. Хотя люди испытывают привязанность к животным, они не спрашивают у них разрешения при строительстве инфраструктуры, такой как автомагистрали. Аналогично, Суцкевер предполагает, что люди могут отдавать приоритет своим собственным потребностям, когда речь идет об искусственном интеллекте.

