FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

Безопасность отошла на второй план в OpenAI?

В этом посте:

  • Ян Лейке, руководитель группы Superalignment OpenAI, поднял серьезные вопросы об изменении практики безопасности компании.
  • Лейке покинул компанию через несколько часов после того, как компанию покинул соучредитель Илья Суцкевер.
  • Сообщается, что компания расформировала команду Superalignment, оставив ее модели искусственного интеллекта менее тщательно изученными.

После того, как соучредитель Илья Суцкевер покинул фирму в начале этой недели, Ян Лейке, известный исследователь, объявил в пятницу утром, что «культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией» в компании.

Ян Лейке сказал в серии постов на платформе социальных сетей X, что он присоединился к стартапу из Сан-Франциско, потому что считал, что это будет лучшее место для проведения исследований в области ИИ. 

Лейке возглавлял команду «Superalignment» OpenAI, а ее соучредитель также уволился на этой неделе.

Команда Superalignment в OpenAI больше не цела

Команда Лейке по Superalignment была сформирована в июле прошлого года в OpenAI для решения основных технических проблем, связанных с внедрением мер безопасности, поскольку компания продвигает искусственный интеллект, который может рационализировать, как человек. 

Заявления Лейке прозвучали после того, как в репортаже WIRED Чич утверждалось, что OpenAI полностью распустила команду Superslignment, перед которой стояла задача устранения долгосрочных рисков, связанных с ИИ.

Читайте также: Главный научный сотрудник Опенай Илья Суцкевер прощается

Суцкевер и Лейке были не единственными сотрудниками, покинувшими компанию. По крайней мере, еще пять наиболее заботящихся о безопасности сотрудников OpenAI покинули компанию или были уволены с ноября прошлого года, когда совет директоров попытался уволить генерального директора Сэма Альтмана только для того, чтобы посмотреть, как он разыгрывает свои карты, чтобы вернуть себе должность.

OpenAI должна стать AGI-компанией, ориентированной на безопасность

Лейке указал на наиболее спорную особенность технологии на нескольких платформах — перспективную картину роботов, которые либо в целом столь же умны, как люди, либо, по крайней мере, способны выполнять многие задачи так же хорошо, — написав, что OpenAI необходимо превратить в систему, ориентированную на безопасность. Компания АГИ.

См. Также  китайские чиновники используют вредоносное ПО для добычи данных со смартфонов

В ответ на сообщения Лейке Сэм Альтман, генеральный директор Open AI, выразил благодарность Лейке за услуги компании и выразил сожаление по поводу его ухода.

Альтман сказал в X-посте, что Лейке прав и что в ближайшие дни он напишет длинный пост на эту тему. Он также сказал, что

«Нам предстоит еще многое сделать; мы полны решимости сделать это».  

Лейке покинул команду суперсогласования OpenAI, и его место занял Джон Шульман, соучредитель компании.

Но в команде есть пустота. Кроме того, Шульман уже перегружен своей постоянной работой по обеспечению безопасности существующих продуктов OpenAI. Насколько более значительную и ориентированную на будущее работу по обеспечению безопасности может провести OpenAI? Кажется, на этот вопрос нет удовлетворительного ответа.

У Яна Лейке идеологические разногласия с менеджментом

Как уже следует из названия организации, OpenAI, изначально она намеревалась свободно делиться своими моделями с общественностью, но теперь компания заявляет, что предоставление таких мощных моделей каждому может быть вредным, поэтому модели были превращены в частные знания.

Лейке заявил в своем сообщении, что он не согласен с руководством OpenAI относительно приоритетов, которые они навязывали компании в течение довольно долгого времени, пока, наконец, не достигли переломного момента.

См. Также  давление в Пентагоне подталкивает Microsoft отбросить инженеров, связанных с Китаем

Последний день Лейке в компании был четверг, после чего он подал в отставку, не приукрашивая свою отставку какими-либо теплыми проводами или намеком на доверие к лидерству OpenAI. На X он написал: «Я подал в отставку».

Последователь Лейке сказал в комментарии, что он рад, что Лейке больше не является членом их команды. Пробужденные идеологии не соответствуют человечности. Чем менее согласованным он становится, тем больше он вкладывается в ИИ.  

Также читайте: OpennAI защищает контент Reddit для улучшения ChatGPT

Последователь сказал, что он также потребует от всех специалистов по выравниванию defiвыравнивания. Он имел в виду рекомендацию, в которой Лейке спросил других сотрудников OpenAI, что, по его мнению, они могут осуществить культурные изменения, необходимые в компании.  

Ведущая в мире компания в области искусственного интеллекта, похоже, меняет свой курс в отношении мер безопасности, на которых часто акцентируют внимание эксперты, и уход из компании ведущих экспертов по безопасности, вероятно, подтверждает это.


Криптополитический репортаж Аамира Шейха

Криптополитическая академия: Хотите вырастить свои деньги в 2025 году? Узнайте, как сделать это с DeFi в нашем предстоящем веб -классе. Сохраните свое место

Поделиться ссылкой:

Отказ от ответственности. Предоставленная информация не является торговым советом. Cryptopolitan.com не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы tron рекомендуем провести dent исследование и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалюты, получайте ежедневные обновления на свой почтовый ящик.

Выбор редактора

Загрузка статей "Выбор редакции"...

- Крипто -информационный бюллетень, который держит вас вперед -

Рынки движутся быстро.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременную, острую и соответствующую криптографию прямо к вашему почтовым ящику.

Присоединяйтесь сейчас и
никогда не пропустите ход.

Войти. Получите факты.
Продвинуться вперед.

Подпишитесь на КриптоПолитан