Dans une étude publiée dans les Actes de l'Académie nationale des sciences (PNAS), des chercheurs ont analysé en détail des chatbots d'intelligence artificielle (IA), en se concentrant sur leurs comportements et traits de personnalité similaires à ceux des humains. Cette étude, visant à évaluer les capacités de l'IA à imiter le comportement humain , a utilisé les dernières versions de la série de modèles pré-entraînés génératifs de chat d'OpenAI, GPT-3.5-Turbo (ChatGPT-3) et GPT-4 (ChatGPT-4), et a comparé leurs performances à un vaste ensemble de données de réponses humaines.
Les comportements quasi humains de l'IA sous surveillance
L'étude a évalué les chatbots d'IA à travers le prisme du modèle de personnalité OCEAN Big Five, qui englobe l'ouverture à l'expérience, la conscience professionnelle, l'extraversion, l'agréabilité et le névrosisme. Parallèlement, les chatbots ont été mis en situation dans une série de jeux comportementaux, tels que le jeu du dictateur, le jeu de la confiance et le jeu des biens publics, conçus pour révéler des traits de personnalité comme l'altruisme, l'équité et la coopération.
Les résultats ont révélé que ChatGPT-4 se rapproche fortement des scores médians humains dans toutes les dimensions de la personnalité, affichant un comportement remarquablement proche de celui des humains. ChatGPT-3, bien que légèrement moins ouvert, présente également unetroncorrélation avec les comportements humains, malgré des profils de personnalité distincts qui différencient chaque version d'IA.
L'une des révélations majeures de l'étude a été la performance de l'IA dans les jeux de prise de décision stratégique, indiquant le potentiel de ChatGPT-4 à réussir le test de Turing, qui mesure la capacité d'une machine à adopter un comportement intelligent indiscernable de celui d'un humain. Cet aspect a été particulièrement mis en évidence dans les jeux évaluant des traits tels que l'aversion au risque, l'altruisme et l'équité, où les décisions de l'IA ont souvent reflété, voire surpassé, les actions humaines.
De plus, l'analyse a exploré comment les chatbots IA adaptent leurs stratégies en fonction des différentes situations, révélant une grande capacité de réaction aux indices contextuels, comparable au comportement humain. Cette adaptabilité, associée à la capacité de l'IA à « apprendre » de ses rôles précédents dans les parties, souligne une compréhension complexe de la coopération et de la confiance, en parfaite adéquation avec la prise de décision stratégique humaine.
Implications éthiques et sociétales
Alors que l'IA continue de s'intégrer à divers aspects de la vie humaine, il devient primordial de comprendre ses processus décisionnels et de s'assurer de leur conformité aux normes éthiques et sociétales. Cette étude contribue à l'avancement des connaissances dans ce domaine et soulève des questions pertinentes sur les impacts sociétaux de l'IA, qu'il s'agisse de ses conséquences sur le marché du travail ou des considérations éthiques.
L'étude comparative des comportements et des traits de personnalité des chatbots d'IA avec des modèles humains de référence à l'échelle mondiale constitue undent dans la recherche en IA. Elle met en lumière les progrès technologiques rapides qui permettent aux machines d'imiter le comportement humain avec une précision sans précédent. À mesure que des systèmes d'IA comme ChatGPT gagnent en sophistication, leur potentiel de contribution positive à la société s'accroît, malgré la nécessité d'une surveillance continue afin de garantir que leurs capacités soient conformes aux valeurs éthiques et sociétales.
Cette étude représente une avancée significative dans la compréhension des capacités de l'IA. Elle ouvre la voie à des recherches plus approfondies sur la complexité de la prise de décision par l'IA, garantissant ainsi son intégration bénéfique dans les contextes humains.

