FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

Outro executivo da OpenAI, Jan Leike sai

Nesta postagem:

  • O executivo da OpenAI, Jan Leike, deixou a empresa após a renúncia do cofundador Ilya Sutskever.
  • Ambos co-lideraram a equipe OpenAI Superalignnent, responsável por prevenir superinteligência desonesta.
  • A saída dos executivos ocorre apenas dois dias depois que a OpenAI anunciou o GPT-4o.

Dois grandes executivos da OpenAI renunciaram à empresa poucos dias após o lançamento do GPT-4o , o mais recente carro-chefe e modelo mais “emotivo” da empresa.

Co-líder da equipe de superalinhamento da OpenAI sai

Jan Leike, que co-lidera a equipe de Superalinhamento da OpenAI, postou na quarta-feira X : “Eu renunciei”.

Leike ainda não forneceu mais detalhes sobre sua decisão. No entanto, sua postagem veio horas depois de Ilya Sutskever, cofundador da OpenAI, anunciar que estava deixando a empresa e que iria seguir um “projeto que é muito significativo para mim pessoalmente”.

Antes de deixar a OpenAI, Sutskever estava em silêncio desde dezembro de 2023. Com sua primeira postagem desde o intervalo sendo um aviso de demissão, algumas pessoas pareciam preocupadas, dada a posição de Sutskever na empresa. 

Tanto Leike quanto Sutskever co-lideraram a equipe de Superalignment na OpenAI. A unidade foi formada para evitar que modelos de IA superinteligentes se tornassem desonestos.  

Leia também: OpenAI lança equipe de ‘Superalignment’

No início deste mês, Sam Altman, cofundador e CEO da OpenAI, confirmou que a empresa tinha planos de fabricar um desses supermodelos, popularmente conhecido como inteligência artificial geral (AGI). Um AGI pode realizar tarefas como humanos e possivelmente além.

“Se queimamos US$ 500 milhões por ano ou US$ 5 bilhões – ou US$ 50 bilhões por ano – não me importo, realmente não me importo”, disse Altman aosdentda Universidade de Stanford. “Enquanto conseguirmos descobrir uma maneira de pagar as contas, estaremos fazendo AGI. Vai custar caro.”

Veja também  os 50% de tarifa de cobre de Trump também

Sutskever diz que está confiantedent a OpenAI construirá uma AGI segura

Houve opiniões diversas sobre o resultado da AGI. OpenAI disse que pode “elevar a humanidade”. No entanto, muitos argumentam que o progresso substancial na AGI poderia resultar na extinção humana.

Consequentemente, muitas pessoas estão preocupadas com a forma como empresas como a OpenAI estão construindo AGI. Sutskever, entretanto, afirmou que a OpenAI construirá AGI que seja seguro.  

“Estoudent de que a OpenAI construirá uma AGI que seja segura e benéfica sob a liderança de” Sam Altman, Greg Brockman, Mira Murati e Jakub Pachocki.

Jakub Pachocki substituirá Sutskever como o novo cientista-chefe da OpenAI. Pachocki trabalhou anteriormente como Diretor de Pesquisa.

Academia Cryptopolitan: em breve - uma nova maneira de obter renda passiva com DeFi em 2025. Saiba mais

Compartilhar link:

Isenção de responsabilidade. As informações fornecidas não são conselhos de negociação. Cryptopolitan.com não se responsabiliza por quaisquer investimentos feitos com base nas informações fornecidas nesta página. Recomendamos tron dent e /ou consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais Lidos

Carregando artigos mais lidos...

Fique por dentro das notícias sobre criptografia, receba atualizações diárias em sua caixa de entrada

Escolha do editor

Carregando artigos da Escolha do Editor...

- O boletim informativo criptográfico que o mantém à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Inscreva -se no Cryptopolitan diariamente e fique com as informações de criptografia oportunas, nítidas e relevantes diretamente para sua caixa de entrada.

Junte -se agora e
nunca perca um movimento.

Entre. Obtenha os fatos.
Siga em frente.

Assine o CryptoPolitan