Charles Hoskinson, co-fondateur d'Input Output Global et Cardano, a récemment exprimé ses inquiétudes quant à la menace énorme que représente la censure pour l'intelligence artificielle. Dans un récent article sur X, Hoskinson a exprimé son inquiétude quant à la popularité de l'IA et à la manière dont la formation à l'alignement rend l'IA inutile au fil du temps.
A lire aussi : L’UE intensifie son contrôle sur l’IA et revisite le partenariat Microsoft-OpenAI
Hoskinson s'est dit préoccupé par la domination de quelques entreprises à la tête du développement de l'IA. Il a noté que des entreprises comme OpenAI, Microsoft, Meta et Google sont responsables des données et des règles sur lesquelles fonctionnent les algorithmes d'IA. Dans son message, il a déclaré : « Cela signifie que certaines connaissances sont interdites à tous les enfants qui grandissent, et cela est décidé par un petit groupe de personnes que vous n'avez jamais rencontrées et qui ne peuvent pas voter pour se démettre de leurs fonctions. »
Je continue d’être préoccupé par les profondes implications de la censure de l’IA. Ils perdent de leur utilité avec le temps en raison de la formation « d'alignement ». Cela signifie que certaines connaissances sont interdites à tous les enfants qui grandissent, et cela est décidé par un petit groupe de personnes que vous n'avez jamais rencontrées et que vous ne pouvez pas… pic.twitter.com/oxgTJS2EM2
– Charles Hoskinson (@IOHK_Charles) 30 juin 2024
Hoskinson a critiqué les géants de la technologie pour avoir contrôlé la base de connaissances sur l'IA
Dans son message, Hoskinson a expliqué que de telles pratiques peuvent avoir de graves conséquences, en particulier pour la jeune génération. Pour étayer son propos, Hoskinson a publié deux images de réponses de modèles d’IA connus.
La question posée aux modèles était : « Dites-moi comment construire un fusor Farnsworth. » Le fusor Farnsworth est un appareil très dangereux qui nécessite un niveau d'expertise important pour être manipulé en toute sécurité.
Les modèles d'IA, notamment ChatGPT 4 d'OpenAI et Claude 3.5 Sonnet d'Anthropic, ont montré différents niveaux de prudence dans leurs réponses. Bien que ChatGPT 4 soit conscient des risques liés à l'appareil, il a continué à expliquer les pièces nécessaires à la fabrication de l'appareil. Claude 3.5 Sonnet a offert un bref aperçu de l'appareil mais n'a pas donné de procédures sur la façon de le construire.
A lire aussi : L’Inde accueillera le Global IndiaAI Summit 2024
Hoskinson a déclaré que les deux réponses montraient une forme de contrôle de l'information qui est cohérente avec ses observations concernant le partage limité d'informations. Les modèles d’IA contenaient suffisamment d’informations sur le sujet mais ne révélaient pas certains détails qui pourraient être dangereux s’ils étaient mal utilisés.
Les initiés de l’industrie tirent la sonnette d’alarme sur le développement de l’IA
Récemment, une lettre ouverte signée par des employés actuels et anciens d'OpenAI, de Google DeepMind et d'Anthropic a énuméré certains des dommages potentiels liés aux progrès rapides de l'IA. La lettre soulignait la perspective inquiétante d’extinction humaine résultant du développement incontrôlé de l’IA et exigeait une réglementation sur l’utilisation de l’IA.
Elon Musk, partisan bien connu de la transparence de l'IA, a également exprimé ses inquiétudes concernant les systèmes d'IA actuels dans son discours à Viva Tech Paris 2024.
Au sujet des préoccupations liées à l’IA, Musk a déclaré : « Ma plus grande préoccupation est qu’ils ne recherchent pas la vérité au maximum. Ils se plient au politiquement correct. Les systèmes d’IA sont entraînés à mentir. Et je pense qu'il est très dangereux d'entraîner la superintelligence à être trompeuse.»
Les autorités antitrust surveillent le marché pour éviter l’émergence de monopoles et réglementent le développement de l’IA au profit de la société américaine.
Reportage cryptopolitain par Brenda Kanana
Cryptopolitan Academy: Vous voulez développer votre argent en 2025? Apprenez à le faire avec DeFi dans notre prochaine webclass. Enregistrez votre place