Your bank is using your money. You’re getting the scraps.WATCH FREE

Face à l'explosion des publications « bâclées », des scientifiques militent pour une plus grande transparence en matière d'IA

Dans cet article :

  • Les articles et les comptes rendus générés par l'IA inondent les grandes conférences et nuisent à la confiance dans la recherche scientifique.

  • Des études ont révélé que des pourcentages à deux chiffres d'articles et de comptes rendus s'appuient désormais fortement sur des outils d'IA.

  • Des conférences comme NeurIPS et ICLR renforcent les règles de divulgation et pénalisent l'utilisation de l'IA de faible qualité.

Les scientifiques travaillant dans le domaine de la recherche en IA sont confrontés à un problème de crédibilité qu'ils ne peuvent plus ignorer.

Les principales conférences axées sur la recherche en IA ont réagi suite à l'engorgement de leurs systèmes d'évaluation par des soumissions de faible qualité.

Les organisateurs ont constaté une forte augmentation du nombre d'articles et d'évaluations par les pairs produits avec un minimum d'effort humain. Le problème n'est pas le style, mais l'exactitude. Des erreurs s'insinuent là où la précision était autrefois essentielle.

Les conférences durcissent leurs règles face à l'afflux d'articles de mauvaise qualité qui submergent les évaluateurs

Des chercheurs avaient très tôt averti que l'utilisation incontrôlée des outils d'écriture automatisée pourrait nuire au domaine. Inioluwa Deborah Raji, chercheuse en intelligence artificielle à l'Université de Californie à Berkeley, a déclaré que la situation avait rapidement dégénéré en chaos.

« Il y a une certaine ironie à constater tant d'enthousiasme pour l'IA qui façonne d'autres domaines alors qu'en réalité, notre domaine a traversé cette période chaotique en raison de l'utilisation généralisée de l'IA », a-t-elle déclaré.

Des données concrètes montrent à quel point le problème est devenu répandu. Une étude de l'université de Stanford, publiée en août, a révélé que jusqu'à 22 % des articles en informatique présentaient des signes d'utilisation excessive de modèles de langage.

Pangram, une start-up spécialisée dans l'analyse de texte, a examiné les articles soumis et les évaluations par les pairs lors de la Conférence internationale sur les représentations de l'apprentissage (ICLR) de 2025. Elle a estimé que 21 % des évaluations étaient entièrement générées par l'IA, tandis que plus de la moitié l'utilisaient pour des tâches telles que la correction. Pangram a également constaté que 9 % des articles soumis contenaient plus de la moitié de leur contenu produit par l'IA.

Voir aussi :  L’action Quantum s’envole de près de 2 000 % grâce à un effet de mode plutôt qu’à ses revenus, alors que les optimistes et les sceptiques s’affrontent.

Le problème a atteint un point critique en novembre. Lors de la conférence ICLR, les évaluateurs ont signalé un article soupçonné d'avoir été généré par une IA, alors même qu'il figurait parmi les 17 % meilleurs articles selon les notes des évaluateurs. En janvier, la société de détection GPTZero a signalé plus de 100 erreurs automatisées dans 50 articles présentés à NeurIPS, un événement largement considéré comme le principal forum de recherche de pointe dans ce domaine.

Face à l'inquiétude croissante, ICLR a mis à jour ses règles d'utilisation avant la conférence. Les articles qui ne mentionnent pas l'utilisation intensive de modèles de langage sont désormais susceptibles d'être rejetés. Les évaluateurs qui soumettent des évaluations de faible qualité générées automatiquement s'exposent à des sanctions, pouvant aller jusqu'au rejet de leurs propres articles.

Hany Farid, professeur d'informatique à l'Université de Californie à Berkeley, a déclaré : « Si vous publiez des articles de très mauvaise qualité qui sont tout simplement erronés, pourquoi la société devrait-elle nous faire confiance en tant que scientifiques ? »

Le volume de documents papier explose tandis que les systèmes de détection peinent à suivre le rythme

D'après le rapport, NeurIPS a reçu 21 575 articles en 2025, contre 17 491 en 2024 et 9 467 en 2020. Un auteur a soumis plus de 100 articles en une seule année, ce qui dépasse largement ce qui est habituel pour un chercheur.

Thomas G. Dietterich, professeur émérite à l'Université d'État de l'Oregon et président de la section informatique d'arXiv, a déclaré que les téléchargements vers le dépôt ouvert avaient également fortement augmenté.

Les chercheurs affirment néanmoins que la cause n'est pas simple. Certains avancent que cette augmentation est due à l'arrivée de nouveaux acteurs dans le domaine. D'autres estiment que le recours intensif aux outils d'IA joue un rôle majeur. La détection demeure difficile en raison de l'absence de norme commune pourdentles textes automatisés. Dietterich a indiqué que les signes avant-coureurs courants incluent les références inventées et les figures incorrectes. Les auteurs pris en flagrant délit peuvent être temporairement bannis d'arXiv.

Voir aussi :  Les clients Microsoft peuvent désormais créer et personnaliser des agents d’IA autonomes.

La pression commerciale est également présente. Les démonstrations très médiatisées, la flambée des salaires et une concurrence féroce ont incité certains acteurs du secteur à privilégier la quantité. Raji a déclaré que les moments d'engouement suscités partracles personnes extérieures en quête de résultats rapides.

Parallèlement, les chercheurs affirment que certaines utilisations sont légitimes. Dietterich a constaté une amélioration de la qualité rédactionnelle des articles en provenance de Chine, probablement grâce aux outils linguistiques qui permettent de reformuler l'anglais avec plus de clarté.

Le problème dépasse désormais le cadre de l'édition. Des entreprises comme Google, Anthropic et OpenAI présentent leurs modèles comme des partenaires de recherche capables d'accélérer les découvertes dans des domaines tels que les sciences de la vie. Ces systèmes sont entraînés sur des textes académiques.

Farid a averti que si les données d'entraînement contiennent trop de données synthétiques, les performances du modèle peuvent se dégrader. Des études antérieures ont montré que les grands modèles de langage peuvent devenir incohérents lorsqu'ils sont alimentés par des données automatisées non validées.

Farid a déclaré que les entreprises qui collectent des données de recherche onttronintérêt à savoir quelles publications sont rédigées par des humains. Kevin Weil, directeur scientifique d'OpenAI, a indiqué que les outils nécessitent toujours une vérification humaine. « Cela peut constituer un formidable accélérateur », a-t-il affirmé. « Mais il faut vérifier. Cela ne dispense pas de rigueur. »

Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit .

Partager le lien :

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitan.com Cryptopolitan toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous vous recommandons vivement d’effectuer vos tron dent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan