FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

Сотрудники утверждают, что OpenAI и Google DeepMind скрывают риски ИИ 

В этом посте:

  • Бывшие сотрудники обвиняют компании, занимающиеся искусственным интеллектом, в сокрытии рисков, которые могут спровоцировать вымирание человечества.
  • Они говорят, что компании ставят прибыль на первое место, избегая при этом «эффективного надзора».
  • Информаторов обескураживает угроза мести со стороны работодателей.

Несколько нынешних и бывших сотрудников OpenAI и Google DeepMind обвинили свои компании в сокрытии рисков ИИ, которые потенциально могут спровоцировать вымирание человечества. В открытом письме рабочие заявили, что компании, занимающиеся искусственным интеллектом, ставят прибыль на первое место, избегая при этом «эффективного [правительственного] надзора».

Также читайте: OpenAI выбирает преемника GPT-4 из-за проблем с безопасностью

Открытое письмо было подписано 11 бывшими сотрудниками OpenAI, двое из Google DeepMind, и одобрено «крестным отцом ИИ» Джеффри Хинтоном, ранее работавшим в Google. В нем говорится, что мотивы получения прибыли и лазейки в регулировании позволяют компаниям скрывать угрозы, исходящие от передового искусственного интеллекта.

ИИ может привести к «вымиранию человечества»

Согласно письму, такие компании, занимающиеся искусственным интеллектом, как OpenAI и Google DeepMind, создатель Gemini , не делились публично информацией о неадекватных мерах защиты и уровнях риска своих систем, потому что они не обязаны это делать.

Без надзора со стороны регулирующих органов программы искусственного интеллекта могут нанести серьезный вред людям. Сотрудники предупредили:

«Эти риски варьируются от дальнейшего усиления существующего неравенства… до потери контроля над автономными системами искусственного интеллекта, что потенциально может привести к исчезновению человечества».

Как отметили подписавшие письмо, сами компании, занимающиеся искусственным интеллектом, признали эти риски. В мае 2023 года генеральные директора OpenAI, Anthropic и Google DeepMind подписали открытое письмо Центра безопасности ИИ. В письме просто говорилось: «Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

См. Также  Nissan Meess Foxconn EV.

Компании, занимающиеся искусственным интеллектом, все чаще подвергаются пристальному вниманию из-за того, что ставят новые продукты и получение прибыли выше безопасности и защищенности. ChatGPT , компания OpenAI, отметила обеспокоенность, высказанную в письме, и заявила, что работает над разработкой безопасного искусственного интеллекта.

«Мы гордимся своим trac создания наиболее эффективных и безопасных систем искусственного интеллекта и верим в наш научный подход к снижению рисков», — заявила New York Times пресс-секретарь OpenAI Линдси Хелд.

«Мы согласны с тем, что строгие дебаты имеют решающее значение, учитывая значимость этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру».

ИИ

Информаторы опасаются возмездия

Бывшие сотрудники OpenAI и Google заявили, что хотели бы выполнять надзорную роль, пока регулирующие органы разрабатывают законы, которые обязывают разработчиков ИИ публично раскрывать больше информации о своих программах.

Однако соглашения оdentи вероятность ответных мер со стороны работодателей не позволяют работникам публично выражать свои опасения. Согласно письму:

«Некоторые из нас обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли. Мы не первые, кто сталкивается с этими проблемами или говорит об этом».

Информаторы защищены законом в США, но те, кто говорит об опасностях искусственного интеллекта, не защищены, поскольку технология еще не регулируется.

См. Также  Huawei выдвигает экспорт чипов ИИ в залив и Азию

Также читайте: ChatGPT все еще распространяет ложь, говорит наблюдатель за данными ЕС

В письме содержится призыв к компаниям, занимающимся искусственным интеллектом, обеспечить проверяемую анонимность обратной связи, поддерживать культуру открытой критики и не принимать ответных мер против информаторов.

Исследователь искусственного интеллекта Лэнс Б. Элиот говорит, что компании применяют к критике метод кнута и пряника. Сотрудники, которые не высказываются против рисков, вознаграждаются продвижением по службе и повышением заработной платы.

С другой стороны, разоблачители и критики теряют свои опционы на акции и могут быть вытеснены из компании и молча занесены в черный список лидерского сообщества ИИ.


Криптополитические репортажи Джеффри Гого

Криптополитическая академия: Хотите вырастить свои деньги в 2025 году? Узнайте, как сделать это с DeFi в нашем предстоящем веб -классе. Сохраните свое место

Поделиться ссылкой:

Отказ от ответственности. Предоставленная информация не является торговым советом. Cryptopolitan.com не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы tron рекомендуем провести dent исследование и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалюты, получайте ежедневные обновления на свой почтовый ящик.

Выбор редактора

Загрузка статей "Выбор редакции"...

- Крипто -информационный бюллетень, который держит вас вперед -

Рынки движутся быстро.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременную, острую и соответствующую криптографию прямо к вашему почтовым ящику.

Присоединяйтесь сейчас и
никогда не пропустите ход.

Войти. Получите факты.
Продвинуться вперед.

Подпишитесь на КриптоПолитан