Chargement...

Les critiques de la réglementation de l'IA doivent reculer un peu

La réglementation du domaine en plein essor de l'intelligence artificielle ( IA ) s'est révélée être un labyrinthe complexe, les critiques de la ferveur réglementaire exhortant les décideurs politiques à tempérer leur approche.

Les critiques soutiennent qu'une réglementation trop stricte pourrait étouffer le potentiel de cette technologie révolutionnaire. Cependant, le développement rapide de l'IA et ses implications importantes ne peuvent être niés, ce qui montre clairement qu'une certaine forme de surveillance est nécessaire.

IA : une frontière dent précédent

La capacité unique de l'IA à tirer dent conclusions indépendantes la distingue des modèles informatiques traditionnels. Avec sa capacité à créer des images photo-réalistes et à analyser des ensembles de données massifs à grande vitesse, l'IA est porteuse d'immenses promesses pour transformer chaque industrie en augmentant la productivité.

Cependant, ces mêmes capacités peuvent entraîner des défis importants.

Les modèles d'IA formés sur des ensembles de données spécifiques ont le potentiel de reproduire les préjugés humains, faussant les résultats dans des domaines critiques tels que les approbations de prêts hypothécaires ou les demandes d'emploi.

De plus, la capacité de l'IA à apprendre des données accessibles au public soulève des questions importantes sur d'éventuelles violations de la loi sur le droit d'auteur. Le plus déconcertant est peut-être le potentiel de l'IA à déplacer un grand nombre d'emplois, ce qui suscite une inquiétude compréhensible parmi les législateurs.

La rédaction de cadres réglementaires appropriés pour l'IA n'est pas une mince affaire. En raison de ses capacités humaines et de sa capacité à prendre dent décisions apparemment indépendantes, il est difficile de surveiller l'IA.

dent la responsabilité devient floue, créant des obstacles supplémentaires pour les concepteurs et les organismes de réglementation officiels.

Malgré ces complexités, un consensus général a été atteint dans certains domaines. Un accord de 2019 de l'Organisation de coopération et de développement économiques (OCDE) a établi que l'IA devait être transparente, robuste, responsable et sécurisée.

Cependant, au-delà de ces grands principes, un désaccord important persiste sur la defi nition de l'IA, les problèmes que les régulateurs devraient aborder et l'étendue de l'application nécessaire.

Un éventail d'approches de réglementation de l'IA

Différents pays ont adopté différentes positions réglementaires sur l'IA. L'Union européenne, la Chine et le Canada construisent une nouvelle architecture réglementaire, tandis que l'Inde et le Royaume-Uni affirment que l'IA ne nécessite aucune réglementation particulière au-delà des principes énoncés par l'OCDE.

Les États-Unis occupent un terrain d'entente, proposant une déclaration des droits de l'IA, mais débattent toujours de la nécessité de règles ciblées. Cette large divergence suggère qu'un régulateur mondial de l'IA, tel que proposé par Sam Altman d'OpenAI, reste peu probable.

La proposition de loi de l'UE sur l'IA classe les applications d'IA en quatre catégories de risque. Ceux qui présentent un « risque inacceptable », comme la reconnaissance faciale en temps réel pour la surveillance des citoyens, seraient interdits.

La plupart des demandes, jugées à faible risque, feraient l'objet d'une surveillance minimale. Les systèmes d'IA susceptibles d'influencer les élections ou utilisés par les plateformes de médias sociaux comptant plus de 45 millions d'utilisateurs sont étiquetés «à haut risque».

Altman soutient que cette approche pourrait pénaliser indûment les systèmes d'IA à usage général comme ChatGPT d'OpenAI, qui sont principalement utilisés pour des tâches telles que la synthèse de documents ou l'écriture de code.

Une réglementation plus stricte pourrait décourager les petites entreprises ou les organisations à but non lucratif de développer de tels systèmes d'IA, limitant ainsi la concurrence et l'innovation.

Dans les coulisses de cette technologie transformatrice, une lutte familière s'engage entre les régulateurs et les grandes entreprises technologiques. Les régulateurs à Bruxelles et aux États-Unis tentent de limiter le pouvoir de géants comme Alphabet, Microsoft et Meta Platforms, propriétaire de Facebook.

Le règlement proposé par l'UE permet aux praticiens de l'IA un certain degré d'autorégulation, malgré l'innovation rapide et les risques potentiels des modèles d'IA générative créant des applications plus matic .

Malgré les appels à un assouplissement de la réglementation de l'IA, le potentiel d'utilisation abusive et de conséquences imprévues de l'IA rend la menace d'une réglementation excessive moins décourageante que son absence.

Alors que l'IA continue d'évoluer, trouver le juste équilibre entre la promotion de l'innovation et la garantie d'une utilisation responsable reste un défi crucial.

Avis de non-responsabilité :  les informations fournies ne constituent pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous recommandons vivement de faire tron dent et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Jaï Hamid

Jai Hamid est un écrivain passionné qui s'intéresse vivement à la technologie blockchain, à l'économie mondiale et à la littérature. Elle consacre la majeure partie de son temps à explorer le potentiel de transformation de la cryptographie et la dynamique des tendances économiques mondiales.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Pakistan
cryptopolite
Abonnez-vous à CryptoPolitan