- Ян Лейке, руководитель группы Superalignment в OpenAI, поднял серьезные вопросы об изменении методов обеспечения безопасности в компании.
- Лейке покинул компанию спустя несколько часов после ухода соучредителя Ильи Суцкевера.
- Сообщается, что команда Superalignment была расформирована компанией, в результате чего ее модели искусственного интеллекта подвергаются менее тщательному анализу.
После того как соучредитель Илья Суцкевер покинул компанию в начале этой недели, известный исследователь Ян Лейке заявил в пятницу утром, что «культура и процессы обеспечения безопасности отошли на второй план, уступив место блестящим продуктам» в компании.
Ян Лейке в серии постов на платформе социальных сетей X заявил, что присоединился к стартапу из Сан-Франциско, потому что считал, что это лучшее место для проведения исследований в области искусственного интеллекта.
Лейке возглавлял команду OpenAI по «Superalignment» вместе с соучредителем, который также уволился на этой неделе.
Команда Superalignment в OpenAI распалась
Команда Лейке по супервыравниванию была сформирована в июле прошлого года в OpenAI для решения основных технических проблем, связанных с внедрением мер безопасности по мере развития компанией искусственного интеллекта, способного к рациональному мышлению, подобно человеку.
Заявления Лейке прозвучали после публикации в WIRED Chich статьи, в которой утверждалось, что OpenAI полностью распустила команду Superslignment, которая занималась решением долгосрочных рисков, связанных с ИИ.
Читайте также: Главный научный сотрудник OpenAI Илья Суцкевер попрощался со своими коллегами.
Суцкевер и Лейке были не единственными сотрудниками, покинувшими компанию. По меньшей мере еще пять наиболее ответственных сотрудников OpenAI покинули компанию или были уволены с ноября прошлого года, когда совет директоров попытался уволить генерального директора Сэма Альтмана, но тот воспользовался своим правом вернуть себе должность.
OpenAI следует стать компанией, ориентированной на безопасность и общий искусственный интеллект
Лейке указал на наиболее спорный аспект этой технологии на нескольких платформах — перспективу появления роботов, которые либо обладают таким же общим интеллектом, как люди, либо, по крайней мере, способны выполнять многие задачи так же хорошо, — и написал, что OpenAI необходимо превратиться в компанию, ориентированную на безопасность и общий искусственный интеллект.
В ответ на сообщения Лейке, Сэм Альтман, генеральный директор Open AI, выразил благодарность за его работу в компании и сожаление по поводу его ухода.
Альтман в своем посте на X заявил , что Лейке прав и что он напишет подробный пост на эту тему в ближайшие дни. Он также сказал, что...
«Нам предстоит еще многое сделать; мы полны решимости это сделать»
Лейке покинул команду OpenAI по супервыравниванию, и его место занял Джон Шульман, соучредитель компании.
Но в команде чувствуется какая-то пустота. Кроме того, Шульман и так перегружен своей основной работой по обеспечению безопасности существующих продуктов OpenAI. Насколько более значимую, ориентированную на будущее работу по обеспечению безопасности может выполнить OpenAI? На этот вопрос, похоже, нет удовлетворительного ответа.
У Яна Лейке есть идеологические разногласия с руководством
Как следует из названия организации, OpenAI, изначально она задумывалась как платформа, свободно предоставляющая свои модели широкой публике. Однако теперь компания заявляет, что предоставление таких мощных моделей любому желающему может быть вредным, поэтому модели стали объектом частной собственности.
Лейке в своем посте заявил, что не согласен с руководством OpenAI по поводу приоритетов, которые они навязывали компании на протяжении довольно долгого времени, пока, наконец, не достигли критической точки.
Я присоединился к OpenAI, потому что считал, что это лучшее место в мире для проведения подобных исследований.
— Ян Лейке (@janleike) 17 мая 2024 г
Однако я уже довольно давно не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока мы, наконец, не достигли критической точки.
Последний рабочий день Лейке в компании был в четверг, после чего он подал в отставку, не приукрасив свое увольнение никакими теплыми прощаниями или намеками на доверие к руководству OpenAI. На X он написал: «Я подал в отставку»
Один из последователей Лейке в комментарии написал, что рад тому, что Лейке больше не является членом их команды. Идеологии «пробужденного сознания» не соответствуют человечеству. Чем меньше они соответствуют, тем больше их используют в ИИ.
Читайте также: OpennAI обеспечивает безопасность контента Reddit для улучшения ChatGPT
Последователь заявил, что ему также потребуется defiпонятия «выравнивание» от всех специалистов по выравниванию. Он ссылался на рекомендацию, в которой Лейке обратился к другим сотрудникам OpenAI с просьбой, выразив уверенность в том, что они смогут осуществить необходимые в компании культурные изменения.
Похоже, ведущая мировая компания в области искусственного интеллекта меняет свой курс в отношении мер безопасности, которые часто подчеркивают эксперты, и уход из компании ведущих специалистов по безопасности, вероятно, подтверждает это.
Репортаж Аамира Шейха для издания Cryptopolitan
Если вы это читаете, значит, вы уже впереди. Оставайтесь на шаг впереди, подписавшись на нашу рассылку.
Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)















