DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Les applications d'IA comporteront des « étiquettes de sécurité » signalant les risques et les tests

ParAamir SheikhAamir Sheikh
3 minutes de lecture -
Les applications d'IA intégreront des « étiquettes de sécurité » signalant les risques et les tests
  • Les développeurs d'IA devront inclure dans leurs applications des étiquettes mentionnant les risques et les problèmes de sécurité.
  • Cette mesure permettra aux utilisateurs de mieux comprendre la technologie de l'intelligence artificielle et de préserver leur vie privée.
  • Un guide sur l'anonymisation des données sera disponible pour les pays de la région de l'ASEAN.

Dans un avenir proche, les utilisateurs d'applications d'IA générative pourraient trouver des étiquettes expliquant clairement comment l'IA doit être utilisée, les risques associés et le processus de test. Conformément aux nouvelles directives, ces étiquettes deviendront obligatoires afin de rendre cette technologie plus accessible au grand public.

À lire également : L’Union européenne (UE) prend l’initiative en matière de réglementation de l’IA

La ministre singapourienne de la Communication et de l'Information, Mme Josephine Teo, a déclaré que cette nouvelle mesure visait à defiune norme de transparence et de contrôle pour les entreprises technologiques. Elle s'exprimait lors de la conférence sur la protection des données personnelles, le 15 juillet, selon un article du Strait Times. 

Les développeurs d'applications d'IA devraient faire preuve de transparence quant à leurs innovations

À l'instar des étiquettes de sécurité apposées sur les médicaments ou les appareils électroménagers, les développeurs d'applications d'IA générative doivent informer clairement les utilisateurs de l'utilisation et du développement des modèles d'IA. Mme Teo, également ministre chargée de l'initiative « Smart Nation et cybersécurité », a déclaré :

« Nous recommanderons aux développeurs et aux déployeurs de faire preuve de transparence envers les utilisateurs en leur fournissant des informations sur le fonctionnement des modèles et applications d'IA générative. »

Expliquant les nouvelles règles, le ministre a déclaré qu'elles étaient similaires à celles appliquées lorsqu'un utilisateur ouvre une boîte de médicaments sans ordonnance. Il y trouve une notice indiquant clairement comment utiliser le médicament et les effets secondaires possibles

Teo a affirmé que « ce niveau de transparence » est indispensable pour les systèmes d'IA reposant sur une intelligence artificielle générative. Le nouveau règlement defides critères de sécurité à respecter avant la mise à disposition d'un modèle d'IA au public. 

Un guide sur l'anonymisation des données devrait être publié en 2025

L'intelligence artificielle générative est un type d'IA capable de générer de nouveaux textes et images, et se révèle moins prévisible que l'IA traditionnelle. Conformément aux nouvelles directives, les créateurs devront mentionner les risques de diffusion de mensonges, de commentaires hostiles et de récits biaisés dans leurs contenus.

Teo a déclaré que les appareils électroménagers sont désormais étiquetés avec la mention claire qu'ils ont été testés pour garantir leur sécurité d'utilisation ; sans cela, le consommateur ne peut pas savoir si l'appareil est sûr ou non. La même règle s'appliquera aux applications d'intelligence artificielle. L'Autorité de développement des médias et des technologies de l'information de Singapour (IMDA) entamera une consultation auprès du secteur concernant cette nouvelle réglementation. Teo n'a toutefois pas précisé de date pour la publication de ces directives.

L'IMDA a également publié un guide sur les questions de confidentialité liées à la technologie, qui répondra à la demande croissante de données pour l'entraînement des modèles d'IA tout en protégeant la vie privée des utilisateurs, a déclaré Teo.

À lire également : Table ronde des démocrates : Mark Cuban et Brad Garlinghouse discuteront de la réglementation des cryptomonnaies

Denise Wong, directrice générale adjointe de l'IMDA, a déclaré : « Assurer la sécurité des données dans l'IA générative représente un défi de taille pour le secteur. » Elle s'exprimait lors d'une table ronde distincte sur l'IA et la protection des données, organisée pendant l'événement. Des représentants de différentes entreprises technologiques, dont OpenAI (créateur de ChatGPT) et le cabinet de conseil Accenture, participaient à cette table ronde. 

Selon Jessica Gan Lee, responsable juridique de la protection de la vie privée chez OpenAI, des garde-fous en matière de protection des données doivent être mis en place à toutes les étapes du développement et du déploiement de l'IA. Elle a précisé que les modèles d'IA devraient être entraînés sur des ensembles de données diversifiés provenant du monde entier. Mme Lee a insisté sur le fait que de multiples cultures, langues et sources devraient être intégrées à l'entraînement de l'IA, et qu'il est essentiel de trouver des moyens de limiter le traitement des données personnelles.

Teo a déclaré qu'un guide sur l'anonymisation des données sera introduit début 2025 à l'intention des entreprises opérant dans l'ASEAN. Ce guide sera le fruit d'une réunion qui s'est tenue en février entre des responsables régionaux qui ont exploré les moyens de créer un écosystème numérique mondial sécurisé.

Votre banque utilise votre argent. Vous ne récupérez que les miettes. Regardez notre vidéo gratuite pour devenir votre propre banque.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES