OpenAI está entrenando un nuevo sistema de IA para reemplazar a GPT-4, ya que la compañía busca renovar su reputación. El modelo estará precedido por un comité de seguridad dirigido por el director ejecutivo Sam Altman y otros tres miembros de la junta.
Lea también: ChatGPT sigue difundiendo falsedades, afirma el organismo de control de datos de la UE
La empresa con sede en San Francisco se encuentra bajo presión para demostrar su compromiso con la seguridad. Los investigadores de riesgos Jan Leike y Gretchen Krueger, recientemente dimitidos, expusieron la supuesta mala cultura de seguridad en X, antes Twitter.
OpenAI entrena el 'modelo de próxima frontera'
En una publicación de blog el martes, la compañía dijo :
“OpenAI ha comenzado recientemente a entrenar su próximo modelo de frontera y anticipamos que los sistemas resultantes nos llevarán al siguiente nivel de capacidades en nuestro camino hacia la inteligencia artificial general (AGI)”
OpenAI no especificó cuándo se lanzaría el sucesor de GPT-4 ni qué funciones ofrecería. La compañía, valorada en 80 000 millones de dólares, apostó por la innovación con su popular chatbot de IA, ChatGPT , en un momento en que empresas como Google se quedaban atrás para evaluar el riesgo reputacional.
Si bien OpenAI es líder en la carrera de la inteligencia artificial generativa, en la que participan estrechamente Anthropic, Google , Microsoft y otros, la empresa no siempre ha resistido el escrutinio ético.
En una publicación en la que anunciaba su renuncia a OpenAI en X, Leike reveló que “en los últimos años, la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a los productos brillantes”.
Krueger escribió que la empresa necesita “hacer más para mejorar aspectos fundamentales como los procesos de toma de decisiones, la rendición de cuentas, la transparencia, la aplicación de las políticas y el cuidado con el que utilizamos nuestra propia tecnología”.
La semana pasada, un grupo de trabajo de la Unión Europea reiteró sus críticas al informar que ChatGPT, el producto estrella de la empresa, no cumple con sus estándares de precisión.

La empresa presenta la seguridad de la IA como un argumento de venta clave
Mientras tanto, la reciente actualización del modelo GPT-4 se topó inmediatamente con una disputa de alto perfil, con la actriz Scarlett Johannson acusando a la compañía de uso no autorizado de su voz.
Lea también: OpenAI elimina ChatGPT Voice tras la polémica con Scarlett Johansson
Ahora, la compañía está llevando sutracacelerado a las lavanderías, al presentar la seguridad como el argumento de venta de su próximo programa de IA. La empresa también busca ser vista por los reguladores como una empresa que desarrolla una IA responsable. En su blog, OpenAI añadió:
Si bien nos enorgullece construir y lanzar modelos líderes en la industria tanto en capacidades como en seguridad, damos la bienvenida a un debate sólido en este momento importante
El nuevo comité de seguridad estará dirigido por los directores Altman, Bret Taylor (presidente), Adam D'Angelo y Nicole Seligman. El director de preparación, el director de sistemas de seguridad, el director de ciencias de la alineación, el director de seguridad y el director científico también formarán parte del comité.
OpenAI dijo que durante los próximos tres meses el comité “evaluará y desarrollará aún más procesos y salvaguardas” e informará a otros tres directores.
La empresa disolvió su equipo de seguridad a principios de este mes tras la salida del líder del equipo y cofundador de OpenAI, Ilya Sutskever.
Informes Cryptopolitan de Jeffrey Gogo

