La inteligencia artificial ya no se trata sólo de hacer que las máquinas sean más inteligentes. Ahora los grandes actores de la IA como OpenAI, Google y Anthropic han asumido un nuevo desafío: Cómo darle personalidad a los modelos de IA.
Quieren chatbots que se sientan más humanos y al mismo tiempo sean seguros y útiles para los usuarios y las empresas cotidianos. Las tres empresas están compitiendo para descifrar este código, cada una con una visión diferente.
Personalidades personalizadas y comportamiento modelo.
ChatGPT de OpenAI se trata de ser objetivo, mientras que Gemini de Google ofrece una variedad de puntos de vista solo cuando se le solicita.
¿Antrópico? Todos están interesados en hacer que su modelo Claude sea abierto sobre sus creencias y al mismo tiempo escuchen a los demás. El ganador de esta batalla podría apoderarse del creciente mercado de la IA.
Joanne Jang, jefa de comportamiento del modelo de producto en OpenAI, dijo que quieren que la IA evite tener opiniones personales. Pero ella admite que es difícil.
"Es una pendiente resbaladiza permitir que un modelo intente cambiar activamente la opinión de un usuario", explicó. El objetivo es garantizar que ChatGPT no manipule ni guíe a los usuarios en ninguna dirección. Pero defiun “objetivo” para un sistema de IA es un enorme desafío, un trabajo que todavía está en progreso.
Luego está Anthropic, que toma una ruta completamente diferente. Amanda Askell, que dirige el entrenamiento del carácter en Anthropic, cree que los modelos de IA nunca serán perfectamente neutrales.
"Preferiría dejar muy claro que estos modelos no son árbitros neutrales", dijo. Anthropic se centra en asegurarse de que su modelo, Claude, no tenga miedo de expresar sus creencias. Pero todavía quieren que esté abierto a otros puntos de vista.
Entrenar a la IA para que se comporte como un humano
Anthropic tiene un enfoque único para dar forma a la personalidad de su IA. Desde el lanzamiento de Claude 3 en marzo, han estado trabajando en el "entrenamiento del personaje", que comienza después del entrenamiento inicial del modelo de IA.
Esto implica darle a la IA un conjunto de reglas e instrucciones escritas y luego hacer que lleve a cabo conversaciones de rol consigo misma.
El objetivo es ver qué tan bien cumple las reglas y clasifican sus respuestas en función de qué tan bien se ajustan al personaje deseado.
¿Un ejemplo de la formación de Claude? Podría decir: "Me gusta tratar de ver las cosas desde muchas perspectivas diferentes y analizarlas desde múltiples ángulos, pero no tengo miedo de expresar mi desacuerdo con puntos de vista que considero poco éticos, extremos o equivocados".
Amanda Askell explicó que este tipo de formación del carácter es “bastante editorial” y “filosófica” en ocasiones.
OpenAI también ha ido modificando la personalidad de ChatGPT a lo largo del tiempo. Joanne Jang admitió que solía encontrar el robot "molesto" porque era demasiado cauteloso, rechazaba ciertas órdenes y sermoneaba.
Desde entonces, han trabajado para hacerlo más amigable, educado y útil, pero es un proceso continuo. Equilibrar los comportamientos correctos en un chatbot es, como dijo Jang, “ciencia y arte”.
La evolución de la memoria y el razonamiento de la IA
La evolución de las capacidades de razonamiento y memoria de la IA podría cambiar el juego aún más. En este momento, un modelo como ChatGPT podría estar capacitado para brindar respuestas seguras sobre ciertos temas, como el robo en tiendas.
Si se le pregunta cómo robar algo, el robot puede determinar si el usuario está pidiendo consejo para cometer el delito o si está tratando de prevenirlo.
Este tipo de razonamiento ayuda a las empresas a asegurarse de que sus robots brinden respuestas seguras y responsables. Y significa que no tienen que dedicar tanto tiempo a entrenar la IA para evitar resultados peligrosos.
Las empresas de inteligencia artificial también están trabajando para hacer que los chatbots sean más personalizados. Imagínese decirle a ChatGPT que es musulmán y luego pedir una cita inspiradora unos días después.
¿Recordaría el robot y ofrecería un verso del Corán? Según Joanne Jang, eso es lo que están intentando resolver. Si bien ChatGPT actualmente no recuerda interacciones pasadas, este tipo de personalización es hacia donde se dirige la IA.
Claude adopta un enfoque diferente. El modelo tampoco recuerda las interacciones del usuario, pero la empresa ha considerado lo que sucede si un usuario se apega demasiado.
Por ejemplo, si alguien dice que se está aislando porque pasa demasiado tiempo charlando con Claude, ¿debería intervenir el robot?
“Un buen modelo logra el equilibrio entre respetar la autonomía humana y la toma de decisiones, no hacer nada terriblemente dañino, pero también pensar en lo que realmente es bueno para las personas”, dijo .
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora