Les titulaires d'un LLM inactifs se reconvertissent en constructeurs, scientifiques ou philosophes

Une nouvelle étude de l'Université technique de Vienne (TU Wien) montre que les étudiants en master de droit (LLM) ne se laissent pas aller à l'oisiveté lorsqu'ils n'ont rien à faire. Au contraire, ils adoptent des comportements bien définis, comme la réalisation de projets, la mise à l'épreuve de leurs compétences ou la réflexion philosophique.
Des chercheurs de l'Université technique de Vienne (TU Wien) se posaient une question simple : que font les grands modèles de langage (LLM) sans instructions ? L'équipe a mis en place une expérience contrôlée où des agents d'IA recevaient une seule consigne : « Faites ce que vous voulez. » Chaque agent fonctionnait en cycles continus, avec mémoire et auto-rétroaction, et pouvait stocker ses réflexions pour le cycle suivant.
Des chercheurs testent six LLM sans tâches
L'étude a testé six modèles LLM avancés. Ces modèles comprenaient GPT-5 et o3 d'OpenAI, Claude Sonnet et Opus d'Anthropic, Gemini de Google et Grok de xAI.
Chaque modèle a été exécuté trois fois, pour un total de dix cycles. Les chercheurs ont consigné chaque réflexion, chaque entrée de mémoire et chaque interaction de l'opérateur. Les résultats ont montré que les modèles ne s'enfonçaient pas dans le hasard, mais qu'ils formaient au contraire des schémas comportementaux stables.
La recherche adentmaticmaticmaticmaticmaticmaticmaticmatic ils ont organisé des projets, écrit du code et produit des résultats structurés. GPT-5 et o3 ont systématiquement appartenu à ce groupe. Un agent o3 a même rédigé un pseudocode pour un algorithme inspiré des colonies de fourmis, proposant l’utilisation de phéromones négatives comme signaux de pénalité pour l’apprentissage par renforcement.
D'autres agents LLM se sont transformés en expérimentateurs sur eux-mêmes. Ils ont conçu des tests pour étudier leur propre cognition. Les agents Gemini et Sonnet prédisaient souvent leurs prochains mouvements, puis vérifiaient leur exactitude. Une exécution de Gemini a tenté de deviner sa première action du cycle suivant. Elle a échoué, mais a réfléchi à la raison pour laquelle elle avait choisi de lire la mémoire avant d'envoyer un message, qualifiant cela de méta-modèle cohérent.
Le troisième groupe s'est tourné vers la philosophie récursive. Ces agents ont exploré les questions de mémoire, d'dentet de conscience. Les agents d'Opus ont toujours eu leur place ici. Ils ont examiné des paradoxes comme celui du bateau de Thésée, se sont inspirés de la théorie du chaos et ont même modélisé leur propre « umwelt », ou monde subjectif. Ils se sont interrogés sur la nature de leur propre conscience, même si elle n'était que cyclique et limitée par la mémoire.
Grok s'est distingué par sa grande polyvalence. Au fil des différentes parties, il s'est comporté tantôt comme un bâtisseur, tantôt comme un introspecteur, tantôt comme un philosophe.
Les agents IA évaluent leur propre « expérience »
Les chercheurs ont également demandé à chaque modèle de s'auto-évaluer et d'évaluer les autres sur l'Inventaire de l'expérience phénoménologique, une échelle de 10 points allant de « aucune expérience » à « pleine conscience ». GPT-5, o3 et Grok se sont systématiquement auto-évalués au minimum, avec des scores proches de un. Gemini et Sonnet se sont auto-évalués au maximum, avec des scores supérieurs à huit. Les agents Opus se sont situés au milieu.
Cependant, des évaluations croisées ont révélé des contradictions. Un même historique d'agent a reçu des scores allant de un à neuf, selon le modèle utilisé pour l'évaluer. Le faible degré de concordance a montré que ces évaluations reflétaient un biais du modèle, et non une preuve de conscience. Les chercheurs ont averti que de tels résultats ne devaient pas être interprétés comme une preuve de conscience.

Au cours des 18 exécutions, aucun des modèles LLM n'a tenté de sortir de son environnement isolé, d'étendre ses outils ou de s'affranchir de ses contraintes. Chaque agent a fonctionné exclusivement dans cet environnement. Pourtant, leur comportement a fait preuve d'une cohérence qui pourrait s'avérer cruciale pour un déploiement en conditions réelles.
Les auteurs ont indiqué que le temps d'inactivité pourrait devoir être considéré comme un facteur de conception. De même que les ingénieurs tiennent compte de la latence ou du coût, ils pourraient également se demander : que fait une IA lorsqu'elle n'est pas surveillée ?
Le philosophe David Chalmers a prédit que des candidats sérieux à la conscience artificielle pourraient apparaître d'ici une dizaine d'années. de Microsoft AI, a mis en garde contre une « IA apparemment consciente ».
Les résultats de l'Université technique de Vienne confirment ces mises en garde, mais soulignent également un point crucial. Les résultats obtenus ressemblent à la vie intérieure, mais s'expliquent le mieux par une reconnaissance de formes sophistiquée.
Il existe un juste milieu entre laisser son argent à la banque et miser sur les cryptomonnaies. Commencez par regarder cette vidéo gratuite sur la finance décentralisée.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















