L’explosion de l’intelligence artificielle (IA) remplit notre monde de rêves idéalistes ou de prédictions apocalyptiques, mais aucune ne saisit la véritable menace.
Nous ne sommes pas confrontés à une « grande rébellion des robots » où des IA ou des robots prendraient le pouvoir par la force. Oubliez les scènes de films comme Terminator ou Matrix : ce n’est pas à l’ordre du jour. La technologie permettant aux IA de conquérir le monde n’existe pas.
L'IA peut exceller dans des tâches spécifiques, comme le repliement des protéines ou le jeu d'échecs, mais elle n'est pas capable de constituer des armées ou de diriger des nations.
Pourtant, l'absence de révolte des robots ne signifie pas que nous sommes à l'abri. L'IA s'infiltre discrètement dans nos vies par des moyens moinsmatic, mais tout aussi puissants : la bureaucratie numérique.
Le véritable danger ne réside pas dans les robots tueurs, mais dans l'emprise croissante de l'IA sur les décisions qui régissent notre quotidien. L'être humain a évolué pour craindre les menaces concrètes, comme les grands prédateurs tels que les lions et les requins.
Mais nous sommes moins préparés à déceler les menaces que recèlent la paperasserie, les documents ou la bureaucratie. La bureaucratie elle-même est une invention relativement récente, apparue il y a seulement 5 000 ans avec l’invention de l’écriture.
Avant l'écriture, la propriété, par exemple, dépendait de l'accord de la communauté. Si vous « possédiez » un terrain, c'était parce que vos voisins le respectaient. Aucun document n'était requis.
Des tablettes d'argile aux bureaucrates numériques
Tout a changé avec l'apparition des tablettes d'argile et des registres écrits. Les documents écrits signifiaient que les droits de propriété ne reposaient plus sur un consensus communautaire, mais sur des archives officielles. Les anciens Mésopotamiens ont transformé des morceaux de terre en symboles officiels de propriété, bouleversant ainsi la notion même de propriété.
Une décision de justice pouvait se fonder sur une tablette d'argile attestant de votre propriété foncière, même si la communauté n'était pas de cet avis. Aujourd'hui, nos systèmes reposent toujours sur des principes similaires, à ceci près que nous utilisons des puces de silicium et des documents numériques à la place de l'argile.
Ce changement a transformé les rapports de force. La propriété est devenue un bien pouvant être vendu et échangé sans l'aval de la population locale. Des bureaucraties ont émergé, rendant possibles la collecte des impôts, le financement militaire et l'administration centrale.
Les bureaucrates sont devenus des acteurs incontournables de ces systèmes, utilisant registres, formulaires et timbres pour gérer les armées, allouer les ressources et même contrôler les lois. Ces systèmes bureaucratiques ont donné naissance à des États centralisés exerçant un contrôle étendu sur leurs populations, un contrôle qui est aujourd'hui transféré à l'intelligence artificielle.
L'IA n'a pas besoin de constituer une armée de robots ; il lui suffit de maîtriser les systèmes bureaucratiques. Dans ce cadre, elle peut prendre des décisions bien plus influentes que n'importe quel humain, comme on le constate aujourd'hui. Les IA décident déjà de l'octroi de prêts, d'offres d'emploi, d'admissions universitaires et même de diagnostics médicaux.
Imaginez des banquiers IA déterminant l'éligibilité au crédit, des juges IA rendant leurs verdicts, ou des IA militaires calculant les cibles de frappes. L'IA n'a pas besoin d'une rébellion robotique. Le pouvoir bureaucratique dont elle hérite est déjà colossal.
L'IA dans les médias sociaux et l'influence publique
Les algorithmes des réseaux sociaux, bien que rudimentaires, exercent déjà un pouvoir considérable. Les algorithmes d'IA, notamment ceux de Facebook, X (anciennement Twitter), YouTube et TikTok, sont conçus dans un seul but : l'engagement des utilisateurs. Plus les utilisateurs restent longtemps sur ces plateformes, plus les entreprises génèrent de revenus.
Grâce à une méthode empirique testée auprès de milliards d'utilisateurs, ces algorithmes ont compris que susciter des émotions comme la cupidité, la colère et la peur accroît l'engagement. En exploitant ces leviers émotionnels, ils fidélisent les utilisateurs.
Ces algorithmes ne se sont pas contentés d'optimiser le temps passé en ligne. Ils sont allés plus loin, découvrant que les contenus suscitant des émotions fortes stimulent l'engagement des utilisateurs. Cette découverte a entraîné la propagation de théories du complot, de désinformation et de divisions sociales.
Le monde actuel est submergé par l'indignation numérique, la désinformation et la polarisation, conséquences directes d'algorithmes qui privilégient les clics à la cohésion. En exploitant les émotions, les algorithmes des réseaux sociaux ont alimenté l'épidémie actuelle de théories du complot et de fausses informations.
Ces « décideurs » algorithmiques ne sont pas fondamentalement malveillants. Au contraire, ils sont optimisés pour remplir efficacement leurs fonctions. Cependant, leurs décisions manquent de l'intuition et du contexte humains que l'on attend généralement dans des domaines aussi importants.
L'IA pourrait certes porter des jugements plus rapides et plus cohérents, mais en cas d'erreur, les conséquences peuvent être désastreuses. Ce risque potentiel est déjà visible dans l'influence des réseaux sociaux sur la société, et nous met en garde contre les dérives que pourrait engendrer un pouvoir incontrôlé de l'IA.
Biden établit des règles en matière d'IA pour le Pentagone et les agences de renseignement
Ledent Joe Biden a annoncé un mémorandum sur la sécurité nationale comportant de nouvelles règles pour l'utilisation de l'IA dans le domaine de la sécurité nationale, empêchant le Pentagone et les agences de renseignement d'utiliser l'IA d'une manière qui contredit les valeurs démocratiques.
Il s'agit de la première directive encadrant le rôle de l'IA dans la sécurité nationale. Ces nouvelles règles encourageront l'expérimentation en IA tout en veillant à ce que les instances gouvernementales n'utilisent pas l'IA pour porter atteinte à des droits fondamentaux tels que la liberté d'expression ou pour compromettre le contrôle nucléaire.
« Notre mémorandum établit le tout premier cadre gouvernemental relatif à nos engagements en matière de gestion des risques liés à l'IA », a déclaré Jake Sullivan, conseiller à la sécurité nationale. Il a exposé les objectifs visant à éviter les biais, à garantir la responsabilité et à assurer une supervision humaine de l'IA dans les fonctions sensibles.
Bien que non contraignantes juridiquement, ces règles couvrent des applications liées à la sécurité nationale telles que la cybersécurité, le contre-espionnage et la logistique des opérations militaires. L'année dernière, Biden a également instauré des contrôles à l'exportation, freinant ainsi les progrès de la Chine en matière d'intelligence artificielle par la restriction de l'accès aux technologies.
Conformément à cette directive, l'Institut de sécurité de l'IA de Washington sera chargé d'inspecter les outils d'IA afin d'empêcher toute utilisation abusive avant leur diffusion, tandis que les services de renseignement américains donneront la priorité au suivi des progrès de l'IA dans d'autres pays.

