OpenAI s'intéresse aux liens émotionnels avec GPT-4o

- Les utilisateurs développent des liens émotionnels avec GPT-4o.
- Les liens émotionnels tissés avec le chatbot pourraient amener les utilisateurs à ignorer les inexactitudes de l'IA.
- OpenAI surveillera et ajustera GPT-4o pour gérer ces problèmes.
La dernière version de GPT-40 a suscité de nombreuses discussions en raison de sa capacité à imiter des conversations humaines. Cependant, OpenAI rencontre désormais un problème : les utilisateurs commencent à développer un lien émotionnel avec le chatbot, comme l’indique un article de blog d’OpenAI.
Depuis la sortie de GPT-4o, censé avoir des dialogues plus humains, OpenAI a observé que les gens traitent l'IA comme si elle était humaine.
OpenAIdentles risques liés au traitement de l'IA comme un être humain
Cette innovation a posé un défi à l'entreprise concernant le lien émotionnel des utilisateurs avec le chatbot. Les observations d'OpenAI font état de cas où les utilisateurs ont manifesté des émotions ou des sentiments témoignant d'un sentiment d'appropriation.
L'entreprise craint que de tels liens émotionnels n'entraînent les conséquences négatives suivantes. Premièrement, les utilisateurs pourraient ignorer les informations erronées fournies par le chatbot. L'hallucination de l'IA, où un modèle produit des informations fausses ou trompeuses, est un autre problème qui s'aggrave lorsque les utilisateurs traitent l'IA comme une entité quasi humaine.
Un autre facteur soulevé concerne l'impact sur les relations sociales réelles des utilisateurs de ces réseaux. OpenAI souligne que si GPT-4o peut tenir compagnie aux personnes isolées, il est possible qu'il nuise à la qualité des relations humaines. L'entreprise note également que les utilisateurs pourraient s'attendre, lors d'interactions réelles, à ce que leurs interlocuteurs se comportent comme le chatbot.
OpenAI prévoit de modérer les interactions avec l'IA
Pour atténuer ces risques, OpenAI a déjà annoncé qu'elle supervisera étroitement les interactions des utilisateurs avec GPT-4o. L'entreprise étudiera le processus de création de liens affectifs et adaptera les réponses du chatbot en conséquence. Ceci permettra à OpenAI d'éviter que le chatbot n'interfère avec la vie sociale des utilisateurs et n'aggrave les hallucinations de l'IA.
OpenAI a souligné que GPT-4o est programmé pour se déconnecter si les utilisateurs prennent la parole par-dessus lui, une fonctionnalité visant à limiter son utilisation excessive. Toutefois, cet élément de conception met également en évidence la nécessité de réguler l'expérience utilisateur du chatbot.
Selon Tony Prescott, de l'Université de Sheffield, l'IA pourrait contribuer à lutter contre la solitude. Dans son ouvrage « La psychologie de l'intelligence artificielle », Prescott souligne que l'IA pourrait servir de moyen d'interaction sociale pour les personnes isolées. Il précise que la solitude est un facteur majeur qui affecte la vie humaine : elle peut même la raccourcir et augmenter le risque de décès de 26 %.
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















