Your bank is using your money. You’re getting the scraps.WATCH FREE

Le tsar américain des cryptomonnaies, David Sacks, met en garde contre une IA orwellienne qui espionne les citoyens

Dans cet article :

  • David Sacks, un responsable de la Maison Blanche, avertit que le plus grand risque lié à l'IA est la création d'un système orwellien.
  • Sacks affirme que l'administration Biden a imposé des politiques excessives à l'industrie.
  • Il a également accusé Anthropic d'instrumentaliser la peur du public pour influencer la réglementation en matière d'IA.

David Sacks, le tsar américain des cryptomonnaies et de l'IA, a averti lundi que l'intelligence artificielle pourrait bientôt permettre un niveau de surveillance des citoyens « orwellien ».

Sacks a averti que la plus grande menace que représente l'IA ne réside pas dans le fait que les machines se retournent contre les humains. Il a déclaré : « Ce dont nous parlons réellement, c'est d'une IA orwellienne. Nous parlons d'une IA qui ment, qui déforme les réponses, qui réécrit l'histoire en temps réel pour servir les intérêts politiques du pouvoir en place. »

Sacks préconise une réglementation axée sur le mésusage de l'IA plutôt que sur les développeurs

Sacks a évoqué l'approche de l'administration Trump en matière de cryptomonnaies et d'intelligence artificielle, établissant un contraste avec les politiques de l'administration précédente, lors d'un épisode de l'émission « The Ben & Marc Show » d'Andreessen Horowitz, diffusé lundi.

Il a critiqué l'administration Biden et les États dirigés par les démocrates, comme la Californie et le Colorado, pour leur agressivité excessive dans leur volonté d'imposer des règles de protection des consommateurs en matière d'IA qui luttent contre la « discrimination algorithmique »

Il a averti qu'une réglementation excessive constitue une menace pour l'IA, la transformant en un instrument politique qui reflète les préjugés du gouvernement et efface les vérités gênantes de l'histoire.

Sacks a souligné qu'un système orwellien, capable de manipuler délibérément l'information pour créer une réalité conforme aux intérêts des dirigeants politiques, représente le plus grand risque pour le public. Il a expliqué : « Il y a le problème de la surveillance. L'IA va tout savoir de vous. Elle deviendra en quelque sorte votre assistant personnel, et donc l'outil idéal pour que le gouvernement vous surveille et vous contrôle. Et pour moi, c'est de loin le plus grand risque lié à l'IA. »

Voir aussi :  Un expert en IA plaide pour une action gouvernementale contre la désinformation

Bien qu'il ait souligné que le véritable problème ne réside pas dans la technologie elle-même, mais dans les personnes qui choisissent d'en faire un mauvais usage, il a plaidé en faveur de règles ciblant les individus qui instrumentalisent l'IA plutôt que de réglementations générales qui freinent l'industrie et les développeurs en général.

Il a fait remarquer que des lois contre la discrimination existent déjà, et que les organismes de réglementation devraient donc se concentrer sur la sanction des entreprises qui font un mauvais usage de l'IA plutôt que sur celles qui la conçoivent.

Sacks a accusé Anthropic de semer la peur 

Récemment, Sacks s'en est pris à la société de recherche en IA Anthropic, l'accusant d'attiser la peur pour influencer les futures politiques en matière d'IA.

L'entreprise avait publié un essai intitulé « Optimisme technologique et crainte justifiée », ce qui a suscité un vif débat sur les réseaux sociaux concernant l'avenir de la réglementation de l'IA. Sacks a critiqué cet essai, affirmant que l'entreprise cherchait à instrumentaliser la peur du public face à l'IA pour influencer la réglementation.

Néanmoins, l'investisseur milliardaire et cofondateur de LinkedIn, Reid Hoffman, a pris la défense d'Anthropic, qualifiant l'entreprise de « bonne personne ». Son message a cependant suscité une réponse rapide de Sacks, donnant lieu à un bref échange en ligne.

Dans l'un de ses messages, Sacks a souligné que le problème central résidait dans le prétendu plan d'Anthropic visant à influencer discrètement des États démocrates comme la Californie pour qu'ils adoptent des règles en matière d'IA politiquement biaisées.

Voir aussi  Dévoiler des stratégies méconnues pour le déploiement de grands modèles de langage sur des plateformes cloud

Comme l'a indiqué précédemment de Cryptopolitan Dario Amodei, ce dernier a toutefois réfuté les affirmations du responsable, les qualifiant d'« inexactes ». Il a insisté sur le fait que l'entreprise a toujours milité pour une supervision fédérale afin d'éviter un ensemble disparate de réglementations étatiques contradictoires.

L'entreprise a souligné que sa charte d'intérêt public l'engage à utiliser l'IA pour le bien commun et à maintenir le leadership américain dans le secteur, ajoutant qu'elle œuvre pour les mêmes objectifs que l'administration Trump et les citoyens.

Vos clés, votre carte. Dépensez sans en céder la garde et obtenez un rendement de plus de 8 % sur votre solde avec Ether.fi Cash.

Partager le lien :

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan