- Jan Leike, líder da equipe de Superalinhamento da OpenAI, levantou sérias questões sobre as mudanças nas práticas de segurança da empresa.
- Leike deixou a empresa horas depois da saída do cofundador Ilya Sutskever.
- Diz-se que a equipe da Superalignment foi desmantelada pela empresa, deixando seus modelos de IA sujeitos a menor escrutínio.
Após a saída do cofundador Ilya Sutskever da empresa no início desta semana, Jan Leike, um pesquisador de destaque, anunciou na manhã de sexta-feira que "a cultura e os processos de segurança foram relegados a segundo plano em relação a produtos sofisticados" na empresa.
Jan Leike afirmou em uma série de publicações na plataforma de mídia social X que se juntou à startup sediada em São Francisco porque acreditava que seria o melhor lugar para conduzir pesquisas em IA.
Leike liderou a equipe "Superalignment" da OpenAI com um cofundador que também se demitiu esta semana.
A equipe de superalinhamento da OpenAI não existe mais
A equipe de Superalinhamento de Leike foi formada em julho passado na OpenAI para abordar os principais desafios técnicos na implementação de medidas de segurança, à medida que a empresa avança no desenvolvimento de IA capaz de raciocinar como um ser humano.
As declarações de Leike surgiram após uma reportagem da WIRED Chich afirmar que a OpenAI havia dissolvido completamente a equipe de Superalinhamento, que tinha a missão de lidar com os riscos de longo prazo associados à IA.
Leia também: O cientista-chefe da OpenAI, Ilya Sutskever, se despede.
Sutskever e Leike não foram os únicos funcionários a deixar a empresa. Pelo menos mais cinco dos funcionários mais preocupados com a segurança na OpenAI deixaram a empresa ou foram demitidos desde novembro passado, quando o conselho tentou demitir o CEO Sam Altman, apenas para vê-lo usar suas habilidades para recuperar o cargo.
A OpenAI deveria se tornar uma empresa de Inteligência Artificial Geral (AGI) com foco em segurança
Leike destacou a característica mais controversa da tecnologia em diversas plataformas — uma perspectiva de robôs que sejam tão inteligentes quanto os humanos em geral, ou pelo menos capazes de executar muitas tarefas tão bem quanto eles — escrevendo que a OpenAI precisa se transformar em uma empresa de Inteligência Artificial Geral (IAG) que priorize a segurança.
Em resposta às publicações de Leike, Sam Altman, CEO da OpenAI, expressou sua gratidão pelos serviços prestados por Leike à empresa e lamentou sua saída.
Altman afirmou em uma postagem no X que Leike está correto e que escreveria um artigo extenso sobre o assunto nos próximos dias. Ele também disse que,
“Ainda temos muito a fazer; estamos empenhados em fazê-lo.”
Leike deixou a equipe de superalinhamento da OpenAI e John Schulman, um dos fundadores da empresa, assumiu o cargo.
Mas há um certo vazio na equipe. Além disso, Schulman já está sobrecarregado com seu trabalho em tempo integral garantindo a segurança dos produtos existentes da OpenAI. Quanto trabalho de segurança mais significativo e voltado para o futuro a OpenAI é capaz de produzir? Parece não haver uma resposta satisfatória para isso.
Jan Leike tem divergências ideológicas com a gerência
Como o próprio nome da organização, OpenAI, já sugere, a intenção original era compartilhar seus modelos gratuitamente com o público. No entanto, a empresa agora afirma que disponibilizar modelos tão poderosos para qualquer pessoa poderia ser prejudicial, e por isso os modelos foram transformados em conhecimento proprietário.
Leike afirmou em uma publicação que discordava da liderança da OpenAI sobre as prioridades que eles vinham impondo à empresa há algum tempo, até que finalmente chegaram a um ponto de inflexão.
Entrei para a OpenAI porque achava que seria o melhor lugar do mundo para realizar essa pesquisa.
— Jan Leike (@janleike) 17 de maio de 2024
No entanto, venho discordando da liderança da OpenAI sobre as principais prioridades da empresa há algum tempo, até que finalmente chegamos a um ponto de ruptura.
O último dia de Leike na empresa foi quinta-feira, após o qual ele se demitiu e não suavizou sua saída com nenhuma despedida calorosa ou qualquer indício de confiança na liderança da OpenAI. No X, ele postou: "Eu me demiti"
Um seguidor de Leike comentou que está feliz por Leike não fazer mais parte do seu grupo. As ideologias "woke" não estão em sintonia com a humanidade. Quanto menos alinhadas estiverem, mais serão incorporadas à IA.
Leia também: OpennAI protege conteúdo do Reddit para aprimoramento do ChatGPT
O seguidor disse que também exigiria uma defide alinhamento de todos os alinhadores. Ele se referia a uma recomendação na qual Leike perguntou a outros funcionários da OpenAI se eles, em sua opinião, poderiam implementar a mudança cultural necessária na empresa.
A empresa líder mundial em IA parece estar mudando sua estratégia em relação às medidas de segurança frequentemente enfatizadas por especialistas, e a saída de importantes especialistas em segurança da empresa provavelmente confirma isso.
Reportagem Cryptopolitan por Aamir Sheikh
Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.
Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)















