Cargando...

Otro ejecutivo de OpenAI, Jan Leike, renuncia

En esta publicación:

  • El ejecutivo de OpenAI, Jan Leike, abandonó la empresa tras la dimisión del cofundador Ilya Sutskever.
  • Ambos codirigieron el equipo OpenAI Superalignnent, que es responsable de prevenir la superinteligencia deshonesta.
  • La salida de los ejecutivos se produce apenas dos días después de que OpenAI anunciara GPT-4o.

Dos importantes ejecutivos de OpenAI han dimitido de la empresa pocos días después de la presentación del GPT-4o , el último modelo insignia y más "emotivo" de la empresa.

El codirector del equipo de superalineación de OpenAI se marcha

Jan Leike, codirector del equipo de Superalineación en OpenAI, publicó el miércoles X : "Renuncié".

Leike aún no ha proporcionado más detalles sobre su decisión. Sin embargo, su publicación se produjo horas después de que Ilya Sutskever, cofundador de OpenAI, anunciara que dejaría la empresa y se dedicaría a un "proyecto que es muy significativo personalmente para mí".

Antes de abandonar OpenAI, Sutskever había guardado silencio desde diciembre de 2023. Dado que su primera publicación desde la pausa fue un aviso de renuncia, algunas personas parecían preocupadas, dada la posición de Sutskever en la empresa. 

Tanto Leike como Sutskever codirigieron el equipo de Superalignment en OpenAI. La unidad se formó para evitar que los modelos de IA superinteligentes se vuelvan rebeldes.  

Lea también: OpenAI lanza el equipo de 'superalineación'

A principios de este mes, Sam Altman, cofundador y director ejecutivo de OpenAI, confirmó que la compañía tenía planes de crear una supermodelo de este tipo, conocida popularmente como inteligencia artificial general (AGI). Una AGI puede realizar tareas como humanos y posiblemente más allá.

“Ya sea que quememos 500 millones de dólares al año o 5 mil millones de dólares –o 50 mil millones de dólares al año– no me importa, realmente no me importa”, dijo Altman a los dent de la Universidad de Stanford. “Mientras podamos encontrar una manera de pagar las cuentas, estaremos ganando AGI. Va a ser caro”.

Sutskever dice que confía dent OpenAI creará AGI segura

Ha habido diversas opiniones sobre el resultado de AGI. OpenAI dijo que puede "elevar a la humanidad". Sin embargo, muchos argumentan que el progreso sustancial en AGI podría resultar en la extinción humana.

En consecuencia, a muchas personas les preocupa cómo empresas como OpenAI están construyendo AGI. Sutskever, sin embargo, afirmó que OpenAI construirá AGI que sea segura.  

“ dent en que OpenAI creará AGI que sea segura y beneficiosa bajo el liderazgo de” Sam Altman, Greg Brockman, Mira Murati y Jakub Pachocki.

Jakub Pachocki reemplazará a Sutskever como nuevo científico jefe de OpenAI. Pachocki trabajó anteriormente como Director de Investigación.

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Compartir enlace:

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

NFT
criptopolitano
Suscríbete a CryptoPolitan