После того, как соучредитель Илья Суцкевер покинул фирму в начале этой недели, Ян Лейке, известный исследователь, объявил в пятницу утром, что «культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией» в компании.
Ян Лейке сказал в серии постов на платформе социальных сетей X, что он присоединился к стартапу из Сан-Франциско, потому что считал, что это будет лучшее место для проведения исследований в области ИИ.
Лейке возглавлял команду «Superalignment» OpenAI, а ее соучредитель также уволился на этой неделе.
Команда Superalignment в OpenAI больше не цела
Команда Лейке по Superalignment была сформирована в июле прошлого года в OpenAI для решения основных технических проблем, связанных с внедрением мер безопасности, поскольку компания продвигает искусственный интеллект, который может рационализировать, как человек.
Заявления Лейке прозвучали после того, как в репортаже WIRED Чич утверждалось, что OpenAI полностью распустила команду Superslignment, перед которой стояла задача устранения долгосрочных рисков, связанных с ИИ.
Читайте также: Главный научный сотрудник Опенай Илья Суцкевер прощается
Суцкевер и Лейке были не единственными сотрудниками, покинувшими компанию. По крайней мере, еще пять наиболее заботящихся о безопасности сотрудников OpenAI покинули компанию или были уволены с ноября прошлого года, когда совет директоров попытался уволить генерального директора Сэма Альтмана только для того, чтобы посмотреть, как он разыгрывает свои карты, чтобы вернуть себе должность.
OpenAI должна стать AGI-компанией, ориентированной на безопасность
Лейке указал на наиболее спорную особенность технологии на нескольких платформах — перспективную картину роботов, которые либо в целом столь же умны, как люди, либо, по крайней мере, способны выполнять многие задачи так же хорошо, — написав, что OpenAI необходимо превратить в систему, ориентированную на безопасность. Компания АГИ.
В ответ на сообщения Лейке Сэм Альтман, генеральный директор Open AI, выразил благодарность Лейке за услуги компании и выразил сожаление по поводу его ухода.
Альтман сказал в X-посте, что Лейке прав и что в ближайшие дни он напишет длинный пост на эту тему. Он также сказал, что
«Нам предстоит еще многое сделать; мы полны решимости сделать это».
Лейке покинул команду суперсогласования OpenAI, и его место занял Джон Шульман, соучредитель компании.
Но в команде есть пустота. Кроме того, Шульман уже перегружен своей постоянной работой по обеспечению безопасности существующих продуктов OpenAI. Насколько более значительную и ориентированную на будущее работу по обеспечению безопасности может провести OpenAI? Кажется, на этот вопрос нет удовлетворительного ответа.
У Яна Лейке идеологические разногласия с менеджментом
Как уже следует из названия организации, OpenAI, изначально она намеревалась свободно делиться своими моделями с общественностью, но теперь компания заявляет, что предоставление таких мощных моделей каждому может быть вредным, поэтому модели были превращены в частные знания.
Лейке заявил в своем сообщении, что он не согласен с руководством OpenAI относительно приоритетов, которые они навязывали компании в течение довольно долгого времени, пока, наконец, не достигли переломного момента.
Я присоединился, потому что считал, что OpenAI будет лучшим местом в мире для проведения этих исследований.
— Ян Лейке (@janleike) 17 мая 2024 г.
Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока, наконец, не наступил переломный момент.
Последний день Лейке в компании был четверг, после чего он подал в отставку, не приукрашивая свою отставку какими-либо теплыми проводами или намеком на доверие к лидерству OpenAI. На X он написал: «Я подал в отставку».
Последователь Лейке сказал в комментарии, что он рад, что Лейке больше не является членом их команды. Пробужденные идеологии не соответствуют человечности. Чем менее согласованным он становится, тем больше он вкладывается в ИИ.
Также читайте: OpennAI защищает контент Reddit для улучшения ChatGPT
Последователь сказал, что он также потребует от всех специалистов по выравниванию defiвыравнивания. Он имел в виду рекомендацию, в которой Лейке спросил других сотрудников OpenAI, что, по его мнению, они могут осуществить культурные изменения, необходимые в компании.
Ведущая в мире компания в области искусственного интеллекта, похоже, меняет свой курс в отношении мер безопасности, на которых часто акцентируют внимание эксперты, и уход из компании ведущих экспертов по безопасности, вероятно, подтверждает это.
Криптополитический репортаж Аамира Шейха
Криптополитическая академия: Хотите вырастить свои деньги в 2025 году? Узнайте, как сделать это с DeFi в нашем предстоящем веб -классе. Сохраните свое место