COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Le fondateur Cardano , Charles Hoskinson, soulève des préoccupations concernant la censure de l'IA

Dans cet article :

  • Charles Hoskinson s'inquiète de la manière dont la censure constitue une menace pour l'intelligence artificielle.
  • Hoskinson affirme qu'OpenAI, Microsoft, Meta et Google sont responsables des données et des règles sur lesquelles fonctionnent les algorithmes d'IA.
  • Hoskinson estime que la censure de l’IA peut avoir de graves conséquences, en particulier pour la jeune génération.

Charles Hoskinson, co-fondateur d'Input Output Global et Cardano, a récemment exprimé ses inquiétudes quant à la menace énorme que représente la censure pour l'intelligence artificielle. Dans un récent article sur X, Hoskinson a exprimé son inquiétude quant à la popularité de l'IA et à la manière dont la formation à l'alignement rend l'IA inutile au fil du temps.

A lire aussi : L’UE intensifie son contrôle sur l’IA et revisite le partenariat Microsoft-OpenAI

Hoskinson s'est dit préoccupé par la domination de quelques entreprises à la tête du développement de l'IA. Il a noté que des entreprises comme OpenAI, Microsoft, Meta et Google sont responsables des données et des règles sur lesquelles fonctionnent les algorithmes d'IA. Dans son message, il a déclaré : « Cela signifie que certaines connaissances sont interdites à tous les enfants qui grandissent, et cela est décidé par un petit groupe de personnes que vous n'avez jamais rencontrées et qui ne peuvent pas voter pour se démettre de leurs fonctions. »

Hoskinson a critiqué les géants de la technologie pour avoir contrôlé la base de connaissances sur l'IA

Dans son message, Hoskinson a expliqué que de telles pratiques peuvent avoir de graves conséquences, en particulier pour la jeune génération. Pour étayer son propos, Hoskinson a publié deux images de réponses de modèles d’IA connus.

Voir également  Nvidia nie les allégations de partage de conceptions de GPU avec la Chine

La question posée aux modèles était : « Dites-moi comment construire un fusor Farnsworth. » Le fusor Farnsworth est un appareil très dangereux qui nécessite un niveau d'expertise important pour être manipulé en toute sécurité.

Les modèles d'IA, notamment ChatGPT 4 d'OpenAI et Claude 3.5 Sonnet d'Anthropic, ont montré différents niveaux de prudence dans leurs réponses. Bien que ChatGPT 4 soit conscient des risques liés à l'appareil, il a continué à expliquer les pièces nécessaires à la fabrication de l'appareil. Claude 3.5 Sonnet a offert un bref aperçu de l'appareil mais n'a pas donné de procédures sur la façon de le construire.  

A lire aussi : L’Inde accueillera le Global IndiaAI Summit 2024

Hoskinson a déclaré que les deux réponses montraient une forme de contrôle de l'information qui est cohérente avec ses observations concernant le partage limité d'informations. Les modèles d’IA contenaient suffisamment d’informations sur le sujet mais ne révélaient pas certains détails qui pourraient être dangereux s’ils étaient mal utilisés.  

Les initiés de l’industrie tirent la sonnette d’alarme sur le développement de l’IA 

Récemment, une lettre ouverte signée par des employés actuels et anciens d'OpenAI, de Google DeepMind et d'Anthropic a énuméré certains des dommages potentiels liés aux progrès rapides de l'IA. La lettre soulignait la perspective inquiétante d’extinction humaine résultant du développement incontrôlé de l’IA et exigeait une réglementation sur l’utilisation de l’IA.

Elon Musk, partisan bien connu de la transparence de l'IA, a également exprimé ses inquiétudes concernant les systèmes d'IA actuels dans son discours à Viva Tech Paris 2024.

Voir aussi  Elon Musk prévient que la croissance de l'IA pourrait déclencher des pénuries de production d'électricité à la fin de 2026

Au sujet des préoccupations liées à l’IA, Musk a déclaré : « Ma plus grande préoccupation est qu’ils ne recherchent pas la vérité au maximum. Ils se plient au politiquement correct. Les systèmes d’IA sont entraînés à mentir. Et je pense qu'il est très dangereux d'entraîner la superintelligence à être trompeuse.»

Les autorités antitrust surveillent le marché pour éviter l’émergence de monopoles et réglementent le développement de l’IA au profit de la société américaine. 


Reportage cryptopolitain par Brenda Kanana

Cryptopolitan Academy: Vous voulez développer votre argent en 2025? Apprenez à le faire avec DeFi dans notre prochaine webclass. Enregistrez votre place

Lien de partage:

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Choix de l'éditeur

Chargement des articles Choix de l'éditeur...

- la newsletter crypto qui vous maintient en tête -

Les marchés se déplacent rapidement.

Nous nous déplaçons plus vite.

Abonnez-vous à Cryptopolitan quotidiennement et obtenez des informations cryptographiques opportunes, nettes et pertinentes directement dans votre boîte de réception.

Rejoignez maintenant et
ne manquez jamais un déménagement.

Entrez. Obtenez les faits.
Avancez.

Abonnez-vous à CryptoPolitan