- Jan Leike, líder del equipo de Superalineación de OpenAI, ha planteado serias preguntas sobre las prácticas de seguridad cambiantes de la empresa.
- Leike abandonó la empresa horas después de que el cofundador Ilya Sutskever la abandonara.
- Se dice que el equipo de Superalignment será desmantelado por la empresa, dejando sus modelos de IA bajo un escrutinio menor.
Después de que el cofundador Ilya Sutskever dejara la empresa a principios de esta semana, Jan Leike, un destacado investigador, anunció el viernes por la mañana que "la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes" en la empresa.
Jan Leike dijo en una serie de publicaciones en la plataforma de redes sociales X que se unió a la startup con sede en San Francisco porque creía que sería el mejor lugar para realizar investigaciones sobre IA.
Leike dirigió el equipo de “Superalignment” de OpenAI con un cofundador que también renunció esta semana.
El equipo de superalineación de OpenAI ya no está intacto
El equipo de Superalignment de Leike se formó en julio pasado en OpenAI para abordar los principales desafíos técnicos en la implementación de medidas de seguridad a medida que la empresa avanza en una IA que puede racionalizar como un humano.
Las declaraciones de Leike se produjeron después de que un informe de WIRED Chich afirmara que OpenAI había disuelto por completo el equipo Superslignment, que estaba encargado de abordar los riesgos a largo plazo asociados con la IA.
Lea también: Ilya Sutskever, científico jefe de Openai, se despide.
Sutskever y Leike no fueron los únicos empleados que dejaron la empresa. Al menos otros cinco de los trabajadores más comprometidos con la seguridad en OpenAI han dejado la empresa o han sido despedidos desde noviembre pasado, cuando la junta directiva intentó destituir al director ejecutivo, Sam Altman, solo para verlo jugar sus cartas para recuperar su puesto.
OpenAI debería convertirse en una empresa de inteligencia artificial (IA) que priorice la seguridad
Leike señaló la característica más polémica de la tecnología en varias plataformas (una imagen prospectiva de robots que sean tan inteligentes como los humanos o al menos capaces de realizar muchas tareas tan bien como ellos) y escribió que OpenAI necesita transformarse en una empresa de AGI que priorice la seguridad.
En respuesta a las publicaciones de Leike, Sam Altman, director ejecutivo de Open AI, expresó su gratitud por los servicios de Leike a la empresa y expresó su tristeza por su partida.
Altman dijo en una publicación de X que Leike tiene razón y que escribiría una publicación extensa sobre el tema en los próximos días. También dijo que:
“Tenemos mucho más por hacer; estamos comprometidos a hacerlo”
Leike ha abandonado el equipo de superalineación de OpenAI y John Schulman, cofundador de la empresa, ha asumido el control.
Pero hay un vacío en el equipo. Además, Schulman ya está sobrecargado por su trabajo a tiempo completo garantizando la seguridad de los productos existentes de OpenAI. ¿Cuánto más trabajo de seguridad significativo y orientado al futuro puede realizar OpenAI? No parece haber una respuesta satisfactoria.
Jan Leike tiene diferencias ideológicas con la dirección
Como ya lo sugiere el nombre de la organización, OpenAI, que originalmente tenía como objetivo compartir sus modelos libremente con el público, la empresa ahora dice que hacer que modelos tan potentes estén disponibles para cualquiera podría ser perjudicial, por lo que los modelos se han convertido en conocimiento propietario.
Leike dijo en una publicación que no estaba de acuerdo con el liderazgo de OpenAI sobre las prioridades que habían estado imponiendo a la empresa durante bastante tiempo, hasta que finalmente llegaron a un punto de inflexión.
Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación.
— Jan Leike (@janleike) 17 de mayo de 2024
Sin embargo, llevo bastante tiempo en desacuerdo con la dirección de OpenAI sobre las prioridades principales de la empresa, hasta que finalmente llegamos a un punto crítico.
El último día de Leike en la empresa fue el jueves, tras lo cual renunció sin edulcorar su dimisión con ninguna despedida cálida ni ninguna muestra de confianza en el liderazgo de OpenAI. En X, publicó: "Renuncié"
Un seguidor de Leike comentó que está encantado de que ya no sea miembro de su equipo. Las ideologías progresistas no son acordes con la humanidad. Cuanto menos se alinean, más se invierten en la IA.
Lea también: OpennAI protege el contenido de Reddit para mejorar ChatGPT
El seguidor afirmó que también exigiría una defide alineación a todos los alineadores. Señalaba una recomendación en la que Leike preguntó a otros empleados de OpenAI que, en su opinión, podrían impulsar el cambio cultural necesario en la empresa.
La empresa líder mundial en inteligencia artificial parece estar cambiando su rumbo con respecto a las medidas de seguridad a menudo enfatizadas por los expertos, y la salida de los principales expertos en seguridad de la empresa probablemente lo confirme.
Reportaje Cryptopolitan de Aamir Sheikh
Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.
Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)















