OpenAI a reporté la sortie de son outil très attendu de détection de texte généré par son modèle ChatGPT. Selon certaines sources, ce report serait dû à des problèmes potentiels susceptibles d'affecter l'expérience utilisateur et l'écosystème.
Le Wall Street Journal a indiqué qu'OpenAI se préparait à lancer cet outil depuis un an, mais ne l'a pas fait, principalement en raison de risques et de divers problèmes. Ce report semble également lié aux réactions des utilisateurs. Un sondage réalisé par OpenAI a révélé que près d'un tiers des utilisateurs fidèles de ChatGPT pourraient être dissuadés par l'introduction d'une technologie anti-triche.
Comment fonctionne l'outil anti-triche
Selon le Centre pour la démocratie et la technologie, 59 % des enseignants du secondaire pensent que lesdentont utilisé l'IA dans leurs devoirs, soit une augmentation par rapport à l'année précédente.
L'outil anti-triche fonctionne en intégrant un filigrane dans le texte généré par une IA. Bien que ce filigrane soit invisible à l'œil nu, la technologie de détection d'OpenAI parvient à le repérer. L'outil attribue un score représentant la probabilité qu'un texte donné ait été écrit par ChatGPT. Cette technique de filigranage est considérée comme quasi parfaite : des documents internes révèlent une efficacité de 99,9 % lorsque ChatGPT produit un volume important de contenu.
Cependant, certains problèmes ont été soulevés concernant cet outil. L'une des principales préoccupations est qu'il pourrait désavantager les personnes dont l'anglais n'est pas la langue maternelle. Certains craignent que le marquage numérique ne soit pas aussi efficace qu'il devrait l'être ou qu'il signale comme plagiaires des travaux d'auteurs ayant un faible niveau d'anglais. De plus, des critiques ont exprimé leur inquiétude quant à la possibilité d'effacer ou de manipuler le marquage en le traduisant ou en insérant et supprimant des émojis.
Une autre question se pose : qui devrait être autorisé à utiliser l’outil de détection ? Limiter l’accès risque de réduire l’applicabilité de la méthode de tatouage numérique ; en revanche, un accès libre pourrait la rendre inefficace.
D'autres géants de la technologie développent des solutions similaires
Bien qu'OpenAI n'ait pas encore implémenté l'outil anti-triche pour le texte, l'entreprise a déjà commencé à appliquer le tatouage numérique aux contenus audio et vidéo. Ces formats multimédias sont considérés comme prioritaires car les deepfakes générés par l'IA présentent des risques plus élevés que les contenus textuels.
D'autres entreprises technologiques développent également des solutions similaires. Par exemple, Google travaille sur sa propre solution de tatouage numérique, SynthID, actuellement en phase bêta. Cependant, OpenAI privilégie le tatouage audio et visuel au tatouage textuel, car les conséquences du premier sont plus graves et peuvent se produire lors de périodes critiques, comme les années électorales.
Cette nouvelle survient alors qu'Elon Musk est de retour devant les tribunaux pour poursuivre OpenAI, accusant l'entreprise et ses fondateurs, Sam Altman et Greg Brockman, de s'être éloignés de l'objectif initial de créer une IA pour l'amélioration de l'humanité.

