Dos importantes ejecutivos de OpenAI han dimitido de la empresa pocos días después de la presentación del GPT-4o , el último modelo insignia y más "emotivo" de la empresa.
El codirector del equipo de superalineación de OpenAI se marcha
Jan Leike, codirector del equipo de Superalineación en OpenAI, publicó el miércoles X : "Renuncié".
renuncié
- Jan Leike (@janleike) 15 de mayo de 2024
Leike aún no ha proporcionado más detalles sobre su decisión. Sin embargo, su publicación se produjo horas después de que Ilya Sutskever, cofundador de OpenAI, anunciara que dejaría la empresa y se dedicaría a un "proyecto que es muy significativo personalmente para mí".
Antes de abandonar OpenAI, Sutskever había guardado silencio desde diciembre de 2023. Dado que su primera publicación desde la pausa fue un aviso de renuncia, algunas personas parecían preocupadas, dada la posición de Sutskever en la empresa.
Tanto Leike como Sutskever codirigieron el equipo de Superalignment en OpenAI. La unidad se formó para evitar que los modelos de IA superinteligentes se vuelvan rebeldes.
Lea también: OpenAI lanza el equipo de 'superalineación'
A principios de este mes, Sam Altman, cofundador y director ejecutivo de OpenAI, confirmó que la compañía tenía planes de crear una supermodelo de este tipo, conocida popularmente como inteligencia artificial general (AGI). Una AGI puede realizar tareas como humanos y posiblemente más allá.
“Ya sea que quememos 500 millones de dólares al año o 5 mil millones de dólares –o 50 mil millones de dólares al año– no me importa, realmente no me importa”, dijo Altman a losdentde la Universidad de Stanford. “Mientras podamos encontrar una manera de pagar las cuentas, estaremos ganando AGI. Va a ser caro”.
Sutskever dice que confíadent OpenAI creará AGI segura
Ha habido diversas opiniones sobre el resultado de AGI. OpenAI dijo que puede "elevar a la humanidad". Sin embargo, muchos argumentan que el progreso sustancial en AGI podría resultar en la extinción humana.
En consecuencia, a muchas personas les preocupa cómo empresas como OpenAI están construyendo AGI. Sutskever, sin embargo, afirmó que OpenAI construirá AGI que sea segura.
“dent en que OpenAI creará AGI que sea segura y beneficiosa bajo el liderazgo de” Sam Altman, Greg Brockman, Mira Murati y Jakub Pachocki.
Jakub Pachocki reemplazará a Sutskever como nuevo científico jefe de OpenAI. Pachocki trabajó anteriormente como Director de Investigación.
Key Difference Wire ayuda a las marcas criptográficas a romper y dominar los titulares rápidamente