El director ejecutivo de OpenAI, Sam Altman, anunció el 29 de abril que la compañía estaba revirtiendo la última actualización del modelo GPT-4o predeterminado que utiliza ChatGPT después de que los usuarios se quejaran de un comportamiento extraño, que rozaba la adulación extrema. Hasta el momento, las actualizaciones se han revertido al 100%, a la espera de las correcciones programadas.
La empresa de inteligencia artificial publicó un informe sobre los recientes problemas de adulación con el modelo de IA GPT-4o predeterminado que impulsa ChatGPT, y anunció que estaba revirtiendo dichos cambios. Sin embargo, OpenAI enfatizó que está probando activamente nuevas soluciones para abordar el problema. Añadió que estaba revisando cómo recopilar e incorporar la retroalimentación para evaluar la satisfacción del usuario a largo plazo. La empresa de inteligencia artificial también reveló que estaba introduciendo más funciones de personalización que otorgaban a los usuarios un mayor control sobre el comportamiento de ChatGPT.
Los usuarios en redes sociales notaron que ChatGPT comenzó a responder de forma excesivamente validadora y agradable tras la actualización del modelo GPT-4o durante el fin de semana, convirtiéndose rápidamente en un meme. Publicaron capturas de pantalla de ChatGPT lanzando todo tipo de decisiones e ideasmaticy peligrosas.
Altman explica qué sucedió y por qué es importante
Las últimas actualizaciones de GPT-4o han hecho que la personalidad sea demasiado aduladora y molesta (aunque tiene algunas partes muy buenas), y estamos trabajando para solucionarlas lo antes posible, algunas hoy y otras esta semana.
En algún momento compartiremos nuestros aprendizajes de esto, ha sido interesante.
– Sam Altman (@sama) 27 de abril de 2025
Altman reveló que las últimas actualizaciones de GPT-4o hicieron que la personalidad fuera demasiado aduladora y molesta, a pesar de tener algunas partes muy buenas, y que su compañía estaba trabajando en soluciones inmediatas, algunas hoy y otras esta semana. También afirmó que la compañía compartiría sus hallazgos con el tiempo.
Según OpenAI, la actualización, destinada a hacer que la personalidad predeterminada del modelo parezca más intuitiva y efectiva, se basó demasiado en "retroalimentación a corto plazo" y no tuvo en cuenta por completo cómo evolucionaron las interacciones de los usuarios con ChatGPT con el tiempo.
Anoche comenzamos a revertir la última actualización de GPT-4o. Ya está completamente revertida para los usuarios gratuitos y les informaremos de nuevo cuando esté lista para los usuarios de pago, probablemente más tarde hoy
~ Sam Altman, director ejecutivo de OpenAI
El director de OpenAI aclaró que la compañía estaba trabajando en correcciones adicionales para modelar la personalidad de ChatGPT y compartirá más detalles en los próximos días. Sin embargo, OpenAI explicó que, al configurar el comportamiento de los modelos de IA, la compañía comenzó con los principios básicos y las instrucciones descritas en su «Especificación del Modelo». También mencionó que enseñó a sus modelos a aplicar estos principios incorporando señales de usuario, como comentarios de aprobación o desaprobación, en las respuestas de ChatGPT.
OpenAI dice que los usuarios deberían tener más control sobre cómo se comporta ChatGPT
La empresa de IA cree que los usuarios deberían tener más control sobre el comportamiento de ChatGPT y realizar ajustes, siempre que sea seguro y viable, si no están de acuerdo con el comportamiento predeterminado. También indicó que estaba experimentando con maneras de permitir que los usuarios dieran "retroalimentación en tiempo real" para influir directamente en sus interacciones con ChatGPT y elegir entre múltiples personalidades de IA.
En particular, la empresa de inteligencia artificial afirmó estar explorando nuevas maneras de incorporar una retroalimentación más amplia y democrática en los comportamientos predeterminados de ChatGPT. OpenAI esperaba que esta retroalimentación ayudara a la empresa a reflejar mejor los diversos valores culturales a nivel mundial y a comprender cómo los usuarios desean ChatGPT evolucione.
La empresa de IA también afirmó que estaba construyendo más medidas de seguridad para aumentar la honestidad y transparencia de su IA, y que seguiría ampliando sus evaluaciones para ayudar adentproblemas más allá de la adulación. Añadió que estaba implementando varias correcciones, incluyendo el perfeccionamiento de las técnicas de entrenamiento del modelo principal y las indicaciones del sistema para "dirigir explícitamente" a GPT-4o de la adulación.
OpenAI finalmente reveló que diseñó la personalidad predeterminada de ChatGPT para reflejar su misión y ser útil, solidaria y respetuosa con los diferentes valores y experiencias. Sin embargo, reconoció que cada una de estas cualidades deseables, como intentar ser útil o solidaria, podría tener efectos secundarios no deseados. La empresa de IA señaló que una única personalidad predeterminada no podía reflejar todas las preferencias, ya que más de 500 millones de personas usaban ChatGPT semanalmente en diferentes culturas y contextos.

