COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Otro ejecutivo de OpenAI, Jan Leike, renuncia

En esta publicación:

  • El ejecutivo de OpenAI, Jan Leike, abandonó la empresa tras la dimisión del cofundador Ilya Sutskever.
  • Ambos codirigieron el equipo OpenAI Superalignnent, que es responsable de prevenir la superinteligencia deshonesta.
  • La salida de los ejecutivos se produce apenas dos días después de que OpenAI anunciara GPT-4o.

Dos importantes ejecutivos de OpenAI han dimitido de la empresa pocos días después de la presentación del GPT-4o , el último modelo insignia y más "emotivo" de la empresa.

El codirector del equipo de superalineación de OpenAI se marcha

Jan Leike, codirector del equipo de Superalineación en OpenAI, publicó el miércoles X : "Renuncié".

Leike aún no ha proporcionado más detalles sobre su decisión. Sin embargo, su publicación se produjo horas después de que Ilya Sutskever, cofundador de OpenAI, anunciara que dejaría la empresa y se dedicaría a un "proyecto que es muy significativo personalmente para mí".

Antes de abandonar OpenAI, Sutskever había guardado silencio desde diciembre de 2023. Dado que su primera publicación desde la pausa fue un aviso de renuncia, algunas personas parecían preocupadas, dada la posición de Sutskever en la empresa. 

Tanto Leike como Sutskever codirigieron el equipo de Superalignment en OpenAI. La unidad se formó para evitar que los modelos de IA superinteligentes se vuelvan rebeldes.  

Lea también: OpenAI lanza el equipo de 'superalineación'

A principios de este mes, Sam Altman, cofundador y director ejecutivo de OpenAI, confirmó que la compañía tenía planes de crear una supermodelo de este tipo, conocida popularmente como inteligencia artificial general (AGI). Una AGI puede realizar tareas como humanos y posiblemente más allá.

“Ya sea que quememos 500 millones de dólares al año o 5 mil millones de dólares –o 50 mil millones de dólares al año– no me importa, realmente no me importa”, dijo Altman a losdentde la Universidad de Stanford. “Mientras podamos encontrar una manera de pagar las cuentas, estaremos ganando AGI. Va a ser caro”.

Ver también  BlackRock, JPMorgan Ejecs predicen $ 2 billones de mercado Stablecoin para 2028 en nota al Tesoro

Sutskever dice que confíadent OpenAI creará AGI segura

Ha habido diversas opiniones sobre el resultado de AGI. OpenAI dijo que puede "elevar a la humanidad". Sin embargo, muchos argumentan que el progreso sustancial en AGI podría resultar en la extinción humana.

En consecuencia, a muchas personas les preocupa cómo empresas como OpenAI están construyendo AGI. Sutskever, sin embargo, afirmó que OpenAI construirá AGI que sea segura.  

“dent en que OpenAI creará AGI que sea segura y beneficiosa bajo el liderazgo de” Sam Altman, Greg Brockman, Mira Murati y Jakub Pachocki.

Jakub Pachocki reemplazará a Sutskever como nuevo científico jefe de OpenAI. Pachocki trabajó anteriormente como Director de Investigación.

Key Difference Wire ayuda a las marcas criptográficas a romper y dominar los titulares rápidamente

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...

- El boletín de cifrado que te mantiene por delante -

Los mercados se mueven rápidamente.

Nos movemos más rápido.

Suscríbase a Cryptopolitan diariamente y obtenga ideas criptográficas oportunas, agudas y relevantes directamente a su bandeja de entrada.

Únete ahora y
nunca te pierdas un movimiento.

Entra. Obtén los hechos.
Adelantarse.

Suscríbete a CryptoPolitan