¿Son los documentos de salida de OpenAI demasiado restrictivos para los empleados que se van?

- Los documentos de salida de OpenAI evitan que los empleados que se van critiquen a la empresa, arriesgándose a perder su capital.
- Las prácticas de seguridad de inteligencia artificial de la empresa ya están bajo críticas tras la salida de figuras clave.
- Sam Altman, quien se disculpó públicamente por las restrictivas condiciones de salida, está siendo criticado por acciones percibidas como contradictorias con sus declaraciones.
Los empleados que dejan OpenAI deben firmar un acuerdo restrictivo de salida. El director ejecutivo de OpenAI, Sam Altman, afirmó que una parte del acuerdo nunca debió haberse materializado, y que es una de las pocas ocasiones en las que dirigir OpenAI lo ha avergonzado de verdad.
Tras la salida de algunos empleados de alto perfil del equipo de seguridad de OpenAI, salió a la luz que el acuerdo incluye cláusulas de no menosprecio y no divulgación que restringen a los empleados salientes criticar a OpenAI por el resto de sus vidas, informó Vox el sábado.
Y no es solo eso; el acuerdo incluso revoca el capital adquirido de los empleados en la empresa si critican a su antiguo empleador de una manera que OpenAI considere que disminuye su valor. Además, no pueden hablar sobre las condiciones de salida, ya que eso también revocaría su capital.
¿Qué está pasando en OpenAI?
En el reciente anuncio de ChatGPT-4o, el producto estrella de la compañía obtuvo la capacidad de hablar y reconocer elementos visuales, pero para los fanáticos y seguidores de la tecnología, todo el alboroto en torno a la actualización del producto fue reemplazado por la realidad de que los empleados que se van de la compañía pueden reconocer elementos visuales pero no se les permite hablar.
“En los últimos años, la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a los productos llamativos.” Jan Leike.
Poco después del lanzamiento de ChatGPT-4o, Ilya Sutskever, cofundador y científico jefe de OpenAI, dejó la empresa. Sutskever también dirigía el equipo de Superalignment, encargado de los problemas de seguridad relacionados con el producto de IA de la empresa.
Lea también: OpenAI presenta Chatgpt-4o: acceso gratuito con limitaciones
Horas después de la salida de Sutskever, otro colíder del equipo de Superalignment, Jan Leike, también se marchó. La salida de ambos expertos en seguridad insinuó la posibilidad de que OpenAI cambiara sus preferencias de seguridad, y se especuló con su posible dimisión en protesta.
Altman se disculpó por errores en la política de equidad
Muchos observadores acusan a Altman de ser un buen estratega a la hora de emitir declaraciones públicas, pero lo critican por trabajar prácticamente en completa contradicción con lo que dice.
Hoy, Altman publicó en X sobre cómo la empresa gestiona el capital de sus empleados. Mencionó que en sus documentos anteriores había una cláusula sobre la posible cancelación del capital, pero nunca reclamaron nada. Aseguró que nunca debió figurar en ninguno de sus documentos.
Altman también comentó que su equipo llevaba el mes pasado arreglando la documentación de salida, y que cualquiera que dejara la empresa con documentos antiguos firmados podía contactarlo para corregirlos. También comentó que es una de las pocas veces que le da vergüenza dirigir la empresa.
Pero, analizando la historia, como dijimos antes, Altman ha sido acusado de contradicciones en sus palabras y acciones; por ejemplo, se le critica por convencer a Arabia Saudita de invertir miles de millones en la fabricación de aceleradores de IA, a sabiendas de que el país es una monarquía y que los poderosos pueden usar la tecnología para controlar la sociedad.
Esto ocurrió al mismo tiempo que aplaudía la seguridad de la IA y firmaba una carta al gobierno estadounidense para detener el rápido desarrollo de la IA y salvar a la humanidad de cualquier daño. También fue lo suficientemente inteligente como para convertir una organización sin fines de lucro en una startup tecnocrática y luego acelerar la comercialización. No es sencillo y requiere algún tipo de engaño para que suceda.
No todo es sencillo en OpenAI
También hay algo de historia detrás. Cuando el director ejecutivo Sam Altman fue despedido por la junta directiva de la compañía el año pasado antes de que regresara rápidamente a su puesto, Sutskever también formó parte de la junta que tomó la decisión.
Pero Sutskever cambió rápidamente de postura y se arrepintió de su decisión; incluso empezó a trabajar con los empleados que querían el regreso de Altman a la empresa. Sutskever también firmó la carta que exigía el regreso de Altman.
Desde el regreso de Altman a la empresa, la posición de Sutskever permaneció incierta, y también fue destituido de la junta directiva, al igual que muchos otros tras el regreso de Altman. Si bien Altman mostró su pesar por la partida de Sutskever, declaró:
“Ilya y OpenAI separan sus caminos. Esto me entristece mucho; Ilya es sin duda una de las mentes más brillantes de nuestra generación, una figura clave en nuestro campo y un querido amigo.” Fuente: OpenAI.
El ex científico jefe dijo que se marcha por algo que es personalmente importante para él. Si bien desconocemos cuál es ese proyecto, parece que quizá se trate de la seguridad de la IA, que se cree que fue el principal objetivo de Sutskever durante todo el tiempo que trabajó en OpenAI.
Lea también: El director ejecutivo de OpenAI opina sobre una posible red de seguridad social impulsada por IA
Por otro lado, el anuncio de Leike fue directo, ya que simplemente dijo: "Renuncié", y posteriormente explicó sus preocupaciones en una serie de publicaciones en X. Altman afirma que están trabajando para corregir los documentos de salida, pero otro exempleado de la empresa, Daniel Kokotaijlo, afirmó haber renunciado a su capital por no firmar el acuerdo. Anunció que dejó la empresa porque perdió la confianza en que se comportaría responsablemente en la época de AGI
Si bien Altman ha dicho que cualquier ex empleado puede comunicarse con ellos y que buscarán solucionar el asunto, no podemos estar seguros de cómo se concreta esto en una escena en la que está en marcha un éxodo de empleados y los empleados están planteando preguntas sobre las prácticas de seguridad de IA cambiantes de la empresa.
Reportaje Cryptopolitan de Aamir Sheikh
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.
Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitanconsultar no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamostronencarecidamente realizar una investigación independientedent un profesional cualificado antes de tomar cualquier decisión de inversión.

Aamir Sheikh
Aamir es un periodista tecnológico especializado en tecnología y criptomonedas. Se graduó de la Universidad MAJ de Karachi con un MBA en Marketing y Finanzas. Escribe análisis de criptomonedas para Cryptopolitan desde 2021.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)














