Des chercheurs de l'Université de Reading ont mené une étude intéressante en soumettant des réponses rédigées par une intelligence artificielle à des examens. Les résultats se sont avérés étonnamment meilleurs que ceux desdenthumains, et les professeurs n'ont pas été en mesure de distinguer les réponses de l'IA de celles des étudiants.
Des chercheurs ont créé 33 fauxdent d'dentpour soumettre des réponses non corrigées générées par une IA. Ces réponses ont été produites à l'aide de ChatGPT-4 pour des évaluations en ligne de tests de psychologiedentà des étudiants de premier cycle. Les chercheurs ont soumis des réponses générées par l'IA à 63 questions, sous forme de questions courtes et de dissertations, sans que les professeurs chargés de corriger les copies ne soient informés de cette recherche.
Les établissements d'enseignement ne reviendront pas aux examens manuscrits.
Les professeurs d'université, mal informés,dentidentifié qu'une seule des 33 copies d'examen comme ayant été rédigée par une IA. Parallèlement, les 32 autres copies sont passées inaperçues et ont obtenu de meilleures notes que cellesdent. En réalité, 83 % des copies rédigées par une IA ont reçu une meilleure note que celles desdenthumains.
À lire également : Les applications éducatives chinoises d’IA gagnent du terrain aux États-Unis
L' étude a été menée par le professeur Etienne Roesch et le professeur agrégé Peter Scarfe. Ce dernier a déclaré que leurs recherches démontrent l'importance internationale de cette question pour l'intégrité des évaluations académiques et la manière dont l'IA les affectera. Il a ajouté :
« Nous ne reviendrons pas forcément entièrement aux examens manuscrits, mais le secteur mondial de l'éducation devra évoluer face à l'IA. »
Scarfe a indiqué que la plupart des établissements ont abandonné les procédures traditionnelles afin de garantir des évaluations plus équitables. Les deux professeurs ont souligné que leurs résultats de recherche constituent un « signal d’alarme pour les éducateurs ».
Les dissertations rédigées par l'IA ont un faible taux de détection
Les chercheurs ont révélé que les dissertations rédigées par l'IA étaient quasiment indétectables, puisque 94 % d'entre elles n'ont éveillé aucune inquiétude chez les correcteurs. La revue Plos One, qui a publié l'étude, indique que ce taux de détection plus faible est probablement surestimé.
« C’est particulièrement inquiétant, car les travaux soumis par l’IA ont obtenu des notes nettement supérieures à celles des travaux soumis par de véritablesdent . »
La revue a également noté que lesdentpeuvent tricher en utilisant l'IA et s'en tirer impunément. Ils peuvent même obtenir de meilleures notes que les étudiants honnêtes qui n'ont pas utilisé l'IA. Pour cette étude, des réponses générées par l'IA ont été soumises pour les modules de la première à la troisième année via de faussesdent. L'IA a surpassé lesdenthumains dans les modules de première et deuxième année.
Cependant, les humains ont obtenu de meilleurs résultats aux examens de troisième année. Les chercheurs ont indiqué que cela corrobore l'idée que l'IA n'excelle pas dans le « raisonnementtrac», du moins dans son état actuel.
L'IA ne possède toujours pas la capacité de raisonner.
L'étude souligne également que la capacité de raisonnement de l'IA augmentera avec le temps, tandis que sa détectabilité diminuera. Il sera donc plus difficile de garantir l'intégrité académique. Les chercheurs indiquent que cette étude pourrait sonner le glas des examens à domicile ou non surveillés.
Le professeur Roesch a déclaré que le secteur de l'éducation devait s'entendre sur la manière dont lesdentpourraient utiliser l'IA dans leurs travaux. Il a insisté sur le fait que cela valait également pour les utilisations de l'IA dans d'autres domaines afin de préserver la confiance au sein de la société.
À lire également : Des solutions technologiques émergent pour endiguer la chute des inscriptions dans l’enseignement supérieur
Le vice-recteur adjoint à l'enseignement de l'université de Reading, le professeur Elizabeth McCrum, a déclaré que l'établissement limitait les examens à domicile. Il a ajouté que l'université travaillait à développer d'autres méthodes qui permettraient d'appliquer les connaissances à des situations concrètes, « souvent des scénarios liés au monde du travail ».
McCrum a précisé que lesdentseront autorisés à utiliser l'IA pour certaines évaluations afin d'apprendre à l'utiliser de manière éthique. Cependant, d'autres travaux ne nécessiteront pas le recours à des outils d'intelligence artificielle. Le professeur a indiqué que cela contribuera à développer la culture numérique desdentet à les préparer aux exigences du monde du travail actuel.
Reportage Cryptopolitan par Aamir Sheikh

