Chargement...

Le gouvernement fédéral installe « AI Doomer » au sein de l'AI Safety Institute parmi cinq nouveaux membres

Dans cet article :

  • Le ministère américain du Commerce a nommé cinq nouveaux membres à son US AI Safety Institute.
  • L’un des membres est célèbre pour être un doomer de l’IA, mais il a également de nombreuses réalisations.
  • L’équipe travaillera sur des objets d’IA liés aux normes de développement technologique et à la sécurité nationale.

L'Institut américain de sécurité de l'IA, qui relève du ministère du Commerce, a annoncé cinq nouveaux membres pour son équipe de direction. Parmi les cinq nouveaux membres, il y en a un qui prédit qu’il y a 50 % de chances que le développement de l’intelligence artificielle mette fin à l’humanité. Mais ce n’est pas sa seule introduction ; il y a des innovations très importantes à son actif.

Nouveaux membres de l’équipe de sécurité d’IA

Il y a un débat depuis un certain temps selon lequel l’intelligence artificielle deviendra une menace existentielle pour les humains, mais de nombreux experts affirment que c’est exagéré et exagéré, et que ce type de prédiction pourrait entraver les progrès dans ce domaine. La tâche à accomplir pour l'équipe nouvellement nommée est d'encourager le développement de manière à ce que l'IA devienne bénéfique pour les gens, contre cette perception de préjudice selon le National Institute of Standards and Technology (NIST).

La directrice du NIST et sous-secrétaire au Commerce pour les normes et la technologie, Laurie E. Locascio, a déclaré :

« Je suis très heureux d'accueillir ces experts talentueux au sein de l'équipe de direction de l'US AI Safety Institute pour aider à établir la science des mesures qui soutiendra le développement d'une IA sûre et digne de confiance. Ils apportent chacun des expériences uniques qui aideront l’institut à construire une base solide pour la sécurité de l’IA à l’avenir.

Parmi les nouveaux membres figure Adam Russell, directeur de la vision, qui est également directeur de la division IA de l'Institut des sciences de l'information de l'Université de Californie. Le professeur Rob Reich sera le conseiller principal, il est originaire de Stanford et travaille comme directeur associé de l'Institute for Human-Centered AI, et est également un expert en sciences politiques.

Mara Quintero Campbell est nommée directrice des opérations et chef de cabinet. Elle est actuellement à la Commerce's Economic Development Administration en tant que directrice des opérations adjointe. Mark Latonero sera responsable de l'engagement international, il est du Bureau de la politique scientifique et technologique de la Maison Blanche et travaille en tant que directeur adjoint du National AI Initiative Office.

L'IA doomer à bord, mais il y a plus à faire

Le nouveau membre qualifié de Doomer de l’IA n’est autre que Paul Christiano. Il est nommé responsable de la sécurité de l'IA de l'équipe. Il est un ancien chercheur d'OpenAI et fondateur de l'Alignement Research Center. Il est également l'inventeur d'une technique fondamentale de sécurité de l'IA connue sous le nom d'apprentissage par renforcement, qui intègre la rétroaction humaine. Il a obtenu son étiquette de catastrophique de l'IA après avoir été interrogé sur un podcast sur la possibilité que les ambitions humaines en matière d'IA se terminent par une catastrophe, ce à quoi il a montré une certaine inquiétude quant à la condamnation de l'humanité, a-t-il déclaré.  

"Je pense qu'il y a peut-être quelque chose comme 10 à 20 % de chances que l'IA prenne le contrôle, et que la plupart des humains soient morts, je prends cela très au sérieux."

Il a aussi dit,

"Dans l'ensemble, peut-être que vous obtenez une chance de catastrophe de 50/50 peu de temps après que vous ayez des systèmes d'IA au niveau humain."

Source : Podcast sans banque.

Christiano a exprimé ces réflexions lors du podcast Bankless avec les animateurs David Hoffman et Ryan Sean Adams, mais il insiste sur le fait que ses opinions ne sont pas aussi extrêmes que celles du célèbre doomer de l'IA Eliezer Yudkowsky, qui suggère un scénario catastrophique total.

La secrétaire américaine au Commerce, Gina Raimondo, a également déclaré que pour préserver le leadership mondial en matière d'IA responsable, garantir la sécurité de l'IA et atténuer les risques qui y sont associés, nous avons besoin des meilleurs talents du pays, c'est pourquoi ces personnes sont sélectionnées, qui sont les meilleures. dans leurs domaines pour rejoindre désormais l'équipe de direction de l' US AI Safety Institute .

Avis de non-responsabilité :  les informations fournies ne constituent pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous recommandons vivement de faire tron dent et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Microsoft
cryptopolite
Abonnez-vous à CryptoPolitan