Le PDG de Nvidia, Jensen Huang, ne voit pas comment contourner ce problème. Il affirme que davantage d’IA est la seule chose qui puisse lutter contre les abus liés à l’IA.
S'exprimant lors d'un événement organisé à Washington par le Bipartisan Policy Center, l'argument de Huang était que l'intelligence artificielle est à la fois le problème et la solution.
Il a expliqué que la capacité de l'IA à générer de fausses données et de fausses informations à une vitesse vertigineuse signifie qu'il faudra quelque chose d'aussi rapide pour rattraper son retard. Huang a également comparé la situation actuelle de l’IA à la cybersécurité.
Il a souligné que « presque toutes les entreprises » sont vulnérables aux attaques à tout moment, et que le seul moyen de se défendre contre ces menaces constantes est de recourir à des systèmes avancés basés sur l’IA.
Il en va de même pour l’IA. Une meilleure IA est nécessaire pour se défendre contre une IA nuisible.
L’IA menace les élections américaines
Les inquiétudes concernant l’utilisation abusive de l’IA augmentent aux États-Unis alors que le pays se prépare aux élections fédérales de novembre.
Avec la montée de la désinformation générée par l’IA, le public s’inquiète de son influence sur la démocratie.
Une enquête du Pew Research Center a révélé que près de 60 % des Américains sont « extrêmement » ou « très » préoccupés par le fait que l’IA soit utilisée pour diffuser de fausses informations sur les candidats.
Les Démocrates et les Républicains sont tout aussi inquiets à ce sujet. Ce qui est encore plus inquiétant, c'est qu'environ deux personnes sur cinq pensent que l'IA sera principalement utilisée à de mauvaises fins lors des élections.
Seuls 5 % des sondés se montrent optimistes quant au potentiel de l'IA. Huang a appelé le gouvernement américain à intensifier son jeu en matière d'IA. Il a déclaré que le gouvernement doit devenir un praticien de l’IA pour garder une longueur d’avance.
Le de Nvidia a souligné que chaque département devrait adopter l'IA, en particulier l'énergie et la défense. Huang a également suggéré de construire un supercalculateur IA.
Il pense que les scientifiques travailleraient avec enthousiasme sur de nouveaux algorithmes qui pourraient aider le pays à progresser.
Les besoins énergétiques de l’IA vont monter en flèche
À mesure que l’IA continue de se développer, elle aura besoin de plus de puissance. Littéralement. Aujourd’hui, les centres de données d’IA consomment déjà jusqu’à 1,5 % de l’électricité mondiale, mais Huang prédit que ce chiffre va augmenter matic .
Les futurs centres de données pourraient nécessiter 10 à 20 fois plus d’énergie que ce que nous observons actuellement. Il a expliqué que les modèles d’IA pourraient commencer à s’apprendre mutuellement, ce qui augmenterait encore la consommation d’énergie.
Mais Huang voit aussi une solution. Il a suggéré de construire des centres de données à proximité de sources d’énergie excédentaire difficiles à transporter.
Puisque l’IA ne se soucie pas de l’endroit où elle apprend, les centres de données pourraient être construits dans des endroits éloignés disposant de suffisamment de ressources énergétiques.
Pendant ce temps, une autre bataille se prépare sur la manière de réguler l’IA. En Californie, le gouverneur Gavin Newsom a opposé son veto à un projet de loi hier soir.
Il s'appelle SB 1047 et a été conçu pour imposer des mesures de sécurité obligatoires pour les systèmes d'IA. Le projet de loi a suscité une résistance majeure de la part des grandes entreprises technologiques comme OpenAI, Meta et Google.
Newsom estime que le projet de loi étoufferait l’innovation et ne parviendrait pas à protéger les gens contre les dangers réels.
Selon Newsom, les normes du projet de loi étaient trop strictes pour les fonctions de base de l'IA, et son approche en matière de réglementation n'était pas la meilleure façon de lutter contre les menaces de l'IA.
Rédigé par le sénateur démocrate Scott Wiener, le projet de loi aurait obligé les développeurs d’IA à mettre en œuvre un « kill switch » pour leurs modèles et à publier des plans pour atténuer les risques extrêmes.
Cela aurait également rendu les développeurs passibles de poursuites judiciaires si leurs systèmes présentaient une menace permanente telle qu'une prise de contrôle du réseau d'IA.