ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Las empresas de inteligencia artificial están renovando la personalidad de los chatbots

PorJai HamidJai Hamid
3 minutos de lectura
Las empresas de inteligencia artificial están renovando la personalidad de los chatbots
  • OpenAI, Google y Anthropic se centran en dar a sus chatbots personalidades únicas para hacerlos más humanos y receptivos.
  • ChatGPT se mantiene neutral, Gemini ofrece opiniones cuando se le pregunta y Claude es abierto sobre sus propias creencias.
  • Anthropic entrena su IA usando juegos de rol para desarrollar su personalidad, mientras que OpenAI afina constantemente ChatGPT para evitar que sea demasiado amigable o moralizador.

La inteligencia artificial ya no se trata solo de hacer que las máquinas sean más inteligentes. Ahora, las grandes empresas de IA como OpenAI, Google y Anthropic han asumido un nuevo reto: cómo dotar de personalidad a los modelos de IA.

Quieren chatbots que se sientan más humanos, seguros y útiles para usuarios y empresas. Las tres compañías compiten por descifrar este código, cada una con un enfoque diferente.

Personalidades personalizadas y comportamiento del modelo

ChatGPT de OpenAI se centra en la objetividad, mientras que Gemini de Google ofrece una variedad de vistas solo cuando se le solicita.

¿Antrópico? Todos están comprometidos a que su modelo Claude sea transparente sobre sus creencias, sin dejar de escuchar a los demás. El ganador de esta batalla podría dominar el creciente mercado de la IA.

Joanne Jang, jefa de comportamiento del modelo de producto en OpenAI, afirmó que quieren que la IA evite tener opiniones personales. Pero admite que es difícil. 

"Es arriesgado dejar que un modelo intente cambiar activamente la opinión de un usuario", explicó. El objetivo es garantizar que ChatGPT no manipule ni guíe a los usuarios en ninguna dirección. Sin embargo, defiun "objetivo" para un sistema de IA es un gran desafío, un trabajo en curso.

Luego está Anthropic, que toma un camino completamente diferente. Amanda Askell, quien dirige el entrenamiento de personajes en Anthropic, cree que los modelos de IA nunca serán completamente neutrales.

“Preferiría dejar muy claro que estos modelos no son árbitros neutrales”, dijo. Anthropic se centra en asegurar que su modelo, Claude, no tenga miedo de expresar sus creencias. Pero aun así quieren que esté abierto a otros puntos de vista.

Entrenando a la IA para que se comporte como un humano

Anthropic tiene un enfoque único para moldear la personalidad de su IA. Desde el lanzamiento de Claude 3 en marzo, han estado trabajando en el "entrenamiento del personaje", que comienza después del entrenamiento inicial del modelo de IA.

Esto implica darle a la IA un conjunto de reglas e instrucciones escritas y luego hacer que mantenga conversaciones de juego de roles consigo misma.

El objetivo es ver qué tan bien se apega a las reglas, y clasifican sus respuestas en función de qué tan bien se ajustan al personaje deseado.

¿Un ejemplo de la formación de Claude? Podría decir: «Me gusta intentar ver las cosas desde diferentes perspectivas y analizarlas desde múltiples ángulos, pero no temo expresar mi desacuerdo con puntos de vista que considero poco éticos, extremos o erróneos»

Amanda Askell explicó que este tipo de entrenamiento de personajes es “bastante editorial” y “filosófico” a veces. 

OpenAI también ha estado experimentando con la personalidad de ChatGPT. Joanne Jang admitió que el bot le resultaba "molesto" porque era demasiado cauteloso, rechazaba ciertas órdenes y parecía sermoneador.

Desde entonces, han trabajado para hacerlo más amigable, educado y servicial, pero es un proceso continuo. Equilibrar los comportamientos adecuados en un chatbot es, como dijo Jang, tanto "ciencia como arte"

La evolución de la memoria y el razonamiento de la IA

La evolución de las capacidades de razonamiento y memoria de la IA podría cambiar las reglas del juego aún más. Actualmente, un modelo como ChatGPT podría entrenarse para dar respuestas seguras sobre ciertos temas, como el hurto en tiendas.

Si se le pregunta cómo robar algo, el bot puede determinar si el usuario está pidiendo consejos para cometer el delito o tratando de prevenirlo.

Este tipo de razonamiento ayuda a las empresas a garantizar que sus bots ofrezcan respuestas seguras y responsables. Además, les ahorra tiempo entrenar la IA para evitar resultados peligrosos.

Las empresas de IA también están trabajando para que los chatbots sean más personalizados. Imagina decirle a ChatGPT que eres musulmán y, unos días después, pedirle una cita inspiradora.

¿Recordaría el bot un versículo del Corán y lo mostraría? Según Joanne Jang, eso es lo que intentan resolver. Si bien ChatGPT actualmente no recuerda interacciones pasadas, este tipo de personalización es el futuro de la IA.

Claude adopta un enfoque diferente. El modelo tampoco recuerda las interacciones del usuario, pero la empresa ha considerado qué sucede si un usuario se encariña demasiado.

Por ejemplo, si alguien dice que se está aislando porque pasa demasiado tiempo chateando con Claude, ¿debería intervenir el bot?

“Un buen modelo logra el equilibrio entre respetar la autonomía y la capacidad de decisión humanas, no hacer nada terriblemente dañino, pero también reflexionar sobre lo que realmente es bueno para las personas”, dijo.

¿Sigues dejando que el banco se quede con lo mejor? Mira nuestro video gratuito sobre cómo ser tu propio banco.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO