OpenAI a annoncé qu'elle développait une version dédiée de ChatGPT pour les adolescents, une mesure qu'elle juge nécessaire pour trouver un équilibre entre sécurité, confidentialité et liberté.
L'entreprise basée à San Francisco, surtout connue pour avoir popularisé l'IA, a annoncé mardi qu'elle allait proposer une expérience ChatGPT différente aux utilisateurs de moins de 18 ans. Cette décision intervient alors que les autorités de régulation, les politiciens et les parents réclament un contrôle renforcé de l'impact des chatbots basés sur l'IA sur la santé mentale des jeunes.
Le nouveau ChatGPT sera doté de garde-fous pour protéger les adolescents
Le PDG d'OpenAI, Sam Altman, a reconnu que l'entreprise était confrontée à des choix difficiles.
« Certains de nos principes sont contradictoires », a-t-il écrit dans un article de blog. « Nous privilégions la sécurité au détriment du respect de la vie privée et de la liberté des adolescents ; il s’agit d’une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d’une protection importante. »
OpenAI exigeait depuis longtemps que les utilisateurs soient âgés d'au moins 13 ans, mais l'entreprise entend désormais mettre en place un système de prédiction d'âge plus strict afin de distinguer les adultes des mineurs. En cas de doute, l'utilisateur sera automatiquement matic vers la version destinée aux adolescents « par mesure de précaution ».
Cette expérience sera non seulement mieux encadrée, mais elle placera également les parents au cœur du dispositif. Grâce à la liaison des comptes, les parents pourront gérer l'accès de leurs enfants, limiter certaines fonctionnalités comme l'historique des conversations et des souvenirs, et définir des plages horaires d'indisponibilité. Les parents seront également avertis si la plateforme détecte des signes de détresse aiguë.
L'entreprise a précisé que ChatGPT pour adolescents n'engagera pas de conversations à caractère flirtant et ne répondra pas aux questions relatives au suicide ou à l'automutilation, même dans le cadre d'activités d'écriture créative. Si un enfant manifeste des pensées suicidaires, l'entreprise indique qu'elle tentera d'abord d'alerter les parents et, si nécessaire, de contacter les autorités.
« Ce sont des décisions difficiles, mais après avoir consulté des experts, c’est ce qui nous semble le mieux », a écrit OpenAI.
OpenAI agit dans un contexte de surveillance réglementaire accrue
Cette nouvelle proposition intervient à quelques heures de l'audition au Sénat américain consacrée aux risques que l'IA fait peser sur les adolescents. Ce débat bipartisan sera mené par le sénateur Josh Hawley, républicain du Missouri, aux côtés des sénateurs Marsha Blackburn, Katie Britt, Richard Blumenthal et Chris Coons.
La semaine dernière, afin d'obtenir des réponses, la Commission fédérale du commerce (FTC) a ouvert une enquête sur OpenAI, Alphabet, Meta, xAI, Snap et Character.AI. La Commission exige des informations sur les mesures prises par chacune de ces entreprises pour protéger les mineurs. Récemment, comme l'a rapporté Cryptopolitan , une évaluation des risques réalisée par Common Sense Media a également classé Google Gemini comme présentant un « risque élevé » pour les adolescents et les enfants.
Les poursuites judiciaires accentuent la pression, des parents américains ayant porté plainte contre des entreprises technologiques, les accusant de concevoir des produits addictifs nuisibles au bien-être mental des enfants. Cette vague de procédures a déjà contraint des sociétés comme YouTube à créer des alternatives adaptées aux enfants.
Bien qu'OpenAI s'efforce de rendre ChatGPT plus sûr pour les mineurs, rien ne garantit le succès de cette initiative, car les jeunes férus de technologie pourraient contourner le contrôle parental et rechercher des versions non filtrées d'applications populaires.
« Nous devons séparer les utilisateurs de moins de 18 ans de ceux qui ne le sont pas. »
OpenAI.
« En cas de doute, nous privilégierons la prudence », a expliqué l'entreprise dans son communiqué public.
Les observateurs du secteur notent que, malgré les efforts déployés, les adolescents trouvent souvent des solutions de contournement pour accéder aux plateformes grand public. Le fait qu'OpenAI dépende des parents pour surveiller l'activité des utilisateurs, ajoutent-ils, pourrait constituer un point de friction.
Cette nouvelle initiative s'inscrit dans le cadre d'un engagement plus large d'OpenAI visant à instaurer des tron pour les jeunes et les personnes en détresse émotionnelle d'ici la fin de l'année.
Comme l'a déclaré Altman : « Il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante. »
Photo prise par 