ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

Не являются ли документы OpenAI, касающиеся увольнения сотрудников, слишком ограничительными?

КАамир ШейхАамир Шейх
4 минуты чтения
OpenAI
  • Увольняющие документы OpenAI не позволяют уходящим сотрудникам критиковать компанию, рискуя потерять свой капитал.
  • Практика компании по обеспечению безопасности в сфере ИИ уже подверглась критике после ухода ключевых лиц.
  • Сэм Альтман, публично извинившийся за ограничительные условия выхода, подвергается критике за действия, которые воспринимаются как противоречащие его заявлениям.

Увольняющимся сотрудникам OpenAI необходимо подписать ограничительное соглашение об увольнении. Генеральный директор OpenAI Сэм Альтман заявил, что часть этого соглашения вообще не должна была стать достоянием общественности, и это один из редких случаев, когда управление OpenAI стало для него по-настоящему неловким.

после ухода некоторых высокопоставленных сотрудников группы безопасности OpenAI выяснилось, что соглашение включает положения о недопустимости критики и неразглашении, которые запрещают уходящим сотрудникам критиковать OpenAI до конца своей жизни. Как сообщило издание Vox в субботу,

И дело не только в этом: соглашение предусматривает даже аннулирование доли участия сотрудников в компании, если они когда-либо будут критиковать своего бывшего работодателя таким образом, что OpenAI сочтёт это умалением их ценности. Кроме того, они не могут обсуждать условия увольнения, поскольку это также аннулирует их долю.

Что происходит в OpenAI?

В недавнем анонсе ChatGPT-4o флагманский продукт компании получил возможность говорить и распознавать визуальные образы, но для технических гениев и поклонников вся шумиха вокруг обновления продукта была поглощена реальностью того, что увольняющиеся сотрудники компании могут распознавать визуальные образы, но им не разрешено говорить.

«В последние годы культура и процессы обеспечения безопасности отошли на второй план, уступив место привлекательным косметическим продуктам». Ян Лейке.

Вскоре после запуска ChatGPT-4o компанию OpenAI покинул соучредитель и главный научный сотрудник Илья Суцкевер. Суцкевер также возглавлял команду Superalignment, которая отвечает за вопросы безопасности, связанные с продуктами компании в области искусственного интеллекта.

Читайте также: OpenAI представляет Chatgpt-4o: бесплатный доступ с ограничениями

Через несколько часов после ухода Суцкевера ушёл и другой соруководитель команды Superalignment, Ян Лейке. Уход обоих экспертов по безопасности намекнул на возможность изменения OpenAI своих предпочтений в области безопасности, и появились предположения, что они могли уйти в отставку в знак протеста.

Альтман извинился за ошибки в политике акционерного капитала

Многие наблюдатели обвиняют Альтмана в том, что он хорошо умеет делать публичные заявления, но критикуют его за то, что на практике он действует полностью вопреки своим словам.

Сегодня Альтман опубликовал на сайте X пост о том, как компания управляет собственным капиталом своих сотрудников. Он упомянул, что в их предыдущих документах был пункт о возможном списании собственного капитала, но они так и не потребовали его возврата. Он заявил, что этого вообще не должно было быть ни в одном из их документов.

Альтман также сообщил, что их команда уже месяц занималась оформлением документов об увольнении, и любой, кто покинул компанию со старыми подписанными документами, может обратиться к нему за исправлением. Он также добавил, что это один из немногих случаев, когда ему стыдно управлять компанией.

Но, если взглянуть на историю, как мы уже говорили, Альтмана обвиняли в противоречиях между словами и делами. Например, его критикуют за то, что он убедил Саудовскую Аравию инвестировать миллиарды долларов в создание ускорителей искусственного интеллекта, зная, что страна — монархия, и что влиятельные люди могут использовать технологии для контроля над обществом. 

Это произошло в то же время, когда он приветствовал безопасность искусственного интеллекта и подписал письмо правительству США с требованием остановить его ускоренное развитие, чтобы спасти человечество от беды. Он также проявил достаточно ума, чтобы превратить некоммерческую организацию в технократический стартап, а затем ускорить коммерциализацию. Это непросто, и для этого требуется некий обман.

Не все так просто в OpenAI

Тут есть и определённая предыстория. Когда в прошлом году совет директоров компании уволил генерального директора Сэма Альтмана, но тот быстро вернулся на свою должность, Суцкевер также был в совете, принимавшем это решение. 

Однако Суцкевер быстро изменил свою позицию и пожалел о своём решении; он даже начал работать с сотрудниками, желавшими возвращения Альтмана в компанию. Суцкевер также подписал письмо с требованием вернуть Альтмана. 

После возвращения Альтмана в компанию положение Суцкевера оставалось неясным, и он, как и многие другие, был исключен из совета директоров после возвращения Альтмана. Альтман же выразил своё сожаление по поводу ухода Суцкевера, заявив:

«Илья и OpenAI расстанутся. Мне очень грустно от этого; Илья, безусловно, один из величайших умов нашего поколения, путеводная звезда нашей области и дорогой друг». Источник: OpenAI.

Бывший главный научный сотрудник заявил, что уходит ради чего-то, что важно лично для него. Хотя мы не знаем, что это за проект или что это за дело, похоже, речь идёт о безопасности ИИ, которая, как считается, была главным приоритетом Суцкевера на протяжении всего времени его работы в OpenAI.

Читайте также: Генеральный директор OpenAI высказывается о потенциальной системе социальной защиты на основе ИИ

С другой стороны, заявление Лейке было прямолинейным: он просто сказал: «Я ушёл в отставку», а затем изложил свои опасения в серии постов на X. Альтман говорит, что они работают над исправлением документов об уходе, но другой бывший сотрудник компании, Даниэль Кокотайло, заявил, что отказался от своей доли, не подписав соглашение. Он объявил, что покинул компанию, потому что потерял «уверенность в её ответственном поведении в период AGI».

Хотя Альтман и заявил, что любой бывший сотрудник может связаться с ними, и они рассмотрят вопрос решения, мы не можем быть уверены в том, как это будет реализовано в ситуации, когда происходит отток сотрудников и они поднимают вопросы об изменении компанией правил безопасности в отношении ИИ.


Репортаж Аамира Шейха для издания Cryptopolitan

Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно.

Поделитесь этой статьей

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtronпровести независимоеdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Аамир Шейх

Аамир Шейх

Аамир — технологический журналист, специализирующийся на технологиях и криптовалютах. Он окончил Университет MAJ в Карачи, получив степень MBA в области маркетинга и финансов. С 2021 года он пишет аналитические статьи о криптовалютах для Cryptopolitan .

ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС