DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

OpenAI autorise une équipe de sécurité à se prémunir contre les développements d'IA à haut risque

ParAamir SheikhAamir Sheikh
Temps de lecture : 2 minutes
Développements en IA à haut risque
  • OpenAI introduit un plan de sécurité accordant à son conseil d'administration un droit de veto sur le développement de l'IA à haut risque.
  • Le cadre de préparation décrit les processus permettant d'évaluer et d'atténuer les risques catastrophiques associés aux modèles d'IA puissants.
  • OpenAI met en place des équipes de sécurité, de superalignement et de préparation pour surveiller et évaluer les différentes catégories de risques liés à l'IA.

OpenAI a dévoilé une nouvelle initiative de sécurité conférant à son conseil d'administration le pouvoir de passer outre les décisions du PDG, Sam Altman, s'il juge les risques liés au développement de l'IA trop élevés. Baptisée « Cadre de préparation », cette stratégie globale vise à combler les lacunes actuelles dans l'étude des risques liés aux IA de pointe et à systématiser les protocoles de sécurité. Ce cadre décrit les processus mis en œuvre par OpenAI pour surveiller, évaluer, prévoir et se prémunir contre les risques catastrophiques posés par des modèles d'IA toujours plus puissants.

Cadre pour les développements d'IA à haut risque

Dans le cadre de cette initiative ambitieuse, OpenAI mettra en place des équipes spécialisées chargées de superviser les différents aspects des risques liés au développement de l'IA. Les équipes en charge des systèmes de sécurité se concentreront sur les abus potentiels et les risques associés aux modèles d'IA existants, tels que ChatGPT. Parallèlement, l'équipe de préparation examinera les modèles émergents, tandis qu'une équipe dédiée à la super-intelligence suivra de près le développement des modèles superintelligents. Toutes ces équipes seront placées sous la supervision du conseil d'administration.

Alors qu'OpenAI s'oriente vers la création d'une IA surpassant l'intelligence humaine, l'entreprise insiste sur la nécessité d'anticiper les défis futurs. Les nouveaux modèles seront rigoureusement testés, poussés à leurs limites, puis évalués selon quatre catégories de risques : cybersécurité, persuasion (mensonges et désinformation), autonomie du modèle (prise de décision autonome) et risques CBRN (chimiques, biologiques, radiologiques et nucléaires). Chaque catégorie se verra attribuer un score de risque – faible, moyen, élevé ou critique – suivi d'un score après mesures d'atténuation. Le déploiement se poursuivra si le risque est moyen ou inférieur, se poursuivra avec des précautions s'il est élevé et sera interrompu s'il est jugé critique. OpenAI s'engage également à respecter les mesures de transparence et à faire appel à des tiersdent pour des audits en cas de problème.

L’approche d’OpenAI en matière de sécurité de l’IA et ses implications futures

OpenAI accorde une importance capitale à la promotion d'une collaboration étendue, tant avec ses partenaires externes qu'au sein de son réseau complexe d'équipes internes, notamment l'équipe des Systèmes de sécurité. Cette synergie collaborative est activement mise à profit pour une surveillance rigoureuse et des mesures d'atténuation des risques liés aux utilisations abusives. S'inscrivant dans cette démarche collaborative, OpenAI étend naturellement ses efforts de coopération au domaine du Superalignement, où l'accent est mis stratégiquement sur l'dentprécise et la gestion des risques émergents liés au désalignement.

Dans son engagement indéfectible à repousser les frontières de la connaissance, OpenAI fait figure de pionnier en ouvrant de nouvelles perspectives de recherche. Au cœur de cette quête incessante d'innovation se trouve l'exploration approfondie des dynamiques subtiles qui régissent l'évolution des risques, parallèlement à la croissance exponentielle des modèles. L'objectif principal de cette recherche est pour le moins ambitieux : prévoir les risques bien à l'avance. Cet objectif ambitieux repose sur une exploitation stratégique des enseignements tirés des succès passés, notamment ceux fondés sur le respect des lois de mise à l'échelle.

Alors qu'OpenAI franchit une étape décisive vers une IA plus sûre, des questions persistent quant aux implications du droit de veto accordé au conseil d'administration contre le PDG. Cette décision permettra-t-elle de trouver le juste équilibre entre innovation et prudence ? Dans quelle mesure le cadre de préparation permettra-t-il d'anticiper et d'atténuer les risques liés au développement de modèles d'IA avancés ? Seul l'avenir dira si cette initiative audacieuse positionne OpenAI comme un pionnier du développement responsable de l'IA ou si elle alimente les débats sur les enjeux liés à l'autorité et à l'innovation dans le domaine en constante évolution de l'intelligence artificielle.

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES