Dans les couloirs bourdonnants de Washington, le débat sur la régulation de l'intelligence artificielle (IA) commence à culminer.
Alors que les technologies prolifèrent, les législateurs américains se demandent comment créer un cadre de garde-corps pour ce domaine naissant, mais il est clair que le consensus est loin d'être imminent.
Washington concilie sécurité et innovation
Du Capitole à la Silicon Valley, diverses opinions sont exprimées sur la manière dont l'IA devrait être réglementée. Certains législateurs préconisent de se concentrer sur les applications d'IA à haut risque, telles que celles utilisées dans les secteurs médical et financier.
Cette "approche basée sur les risques", soutenue par des piliers du monde des affaires comme IBM et la Chambre de commerce américaine, ne réglementerait que les applications d'IA qui présentent des risques importants pour la vie ou les moyens de subsistance des personnes.
D'autres font pression pour un mandat plus large, plaidant pour des réglementations garantissant que l'IA n'est pas utilisée pour enfreindre les droits civils ou perpétuer la discrimination.
Le cœur de ce débat repose sur la question de savoir si la réglementation doit cibler les développeurs d'IA, comme OpenAI, la startup à l'origine du phénomène ChatGPT, ou les entreprises qui déploient ces systèmes d'IA pour interagir avec les consommateurs.
L'essor de l'IA générative, qui utilise les données pour générer de nouveaux contenus, alimente l'urgence d'une réglementation. La popularité d'une telle technologie a non seulement trac l'attention des passionnés de technologie, mais a également soulevé des inquiétudes quant à une utilisation abusive potentielle, telle que la tricherie aux examens, la désinformation et les nouvelles escroqueries.
Cela a abouti à une cascade de réunions, aboutissant à un récent rendez-vous à la Maison Blanche avec les PDG d'OpenAI, Microsoft Corp et Alphabet Inc. Le Congrès a également été poussé à l'action, le personnel de la Chambre et du Sénat s'efforçant pour se familiariser avec cette technologie en évolution rapide.
Une approche basée sur les valeurs
Le débat réglementaire américain va au-delà de la question du risque. Le sénateur démocrate Michael Bennet préconise une «approche fondée sur les valeurs» de la réglementation, soulignant la nécessité de donner la priorité à la vie privée, aux libertés civiles et aux droits.
Bennet a proposé un projet de loi appelant à la création d'un groupe de travail gouvernemental sur l'IA et s'est dit préoccupé par le fait que les réglementations basées sur les risques pourraient être trop rigides pour détecter les dangers subtils.
Un excellent exemple est l'utilisation abusive potentielle de l'IA dans les systèmes de recommandation de contenu, qui peut par inadvertance promouvoir des idéologies nuisibles.
En outre, Bennet et d'autres législateurs ont exprimé leur inquiétude quant à l'utilisation de l'IA pour discriminer, peut-être dans l'attribution de prêts hypothécaires à faible taux d'intérêt.
Chez OpenAI, les discussions ont envisagé la possibilité d'une surveillance plus large. Le chercheur d'OpenAI, Cullen O'Keefe, a proposé la création d'une agence qui obligerait les entreprises à obtenir des licences avant de former de puissants modèles d'IA ou d'exploiter des centres de données.
Cette agence hypothétique, surnommée Office for AI Safety and Infrastructure Security (OASIS), pourrait être l'avant-garde de la réglementation de l'IA.
Malgré la multitude de voix, le chemin vers le consensus reste escarpé. L'élection dent imminente et d'autres questions urgentes comme le relèvement du plafond de la dette ajoutent à la complexité de la situation.
Alors que le gouvernement américain traverse une période incertaine, la communauté mondiale attend avec impatience les premières mesures visant à mettre en œuvre une réglementation complète et éthique pour l'intelligence artificielle, garantissant son intégration sûre et équitable dans la société.