Une entreprise sur trois au Royaume-Uni s'inquiète de la sécurité de leurs données lors de l'utilisation de modèles de langues importants (LLM), car ils sont passés à partir d'assistants qui répondent aux commandes ou aux questions en systèmesdent qui agissent sans intervention humaine constante.
En conséquence, ces organisations hésitent à intégrer pleinement les agents de l'IA dans leurs systèmes de fonctionnement parce qu'ils craignent de perdre le contrôle de leurs données et de leur sécurité aux machines qui peuvent «penser par elles-mêmes».
Le gouvernement britannique prend des mesures pour relever ces défis. Le ministre du Cabinet, Pat McFadden, a annoncé la déclassification d'une évaluation du renseignement indiquant que l'IA dégénèrera les cyber-menaces dans les années à venir.
En 2024, le NCSC a reçu près de 2 000 rapports de cyberattaques, avec près de 90 jugés «significatifs» et 12 au «tout le haut de la gravité». C'était trois fois le nombre d'attaques graves par rapport à l'année précédente.
Les entreprises britanniques augmentent les drapeaux rouges sur la sécurité des données dans les LLM
Les entreprises au Royaume-Uni doivent se conformer aux réglementations strictes qui protègent les données des personnes et empêcher son utilisation abusive, telles que la Loi sur la protection des données et le règlement général de la protection des données de l'UE (RGPD).
Les entreprises qui enfreignent ces lois risquent une action en justice et endommagent leur réputation, ils repensent donc leurs stratégies LLM. L'IA pourrait révéler des informations privées ou générer des résultats trompeurs sans supervision humaine soigneuse ni incitation précise.
Initialement, les outils d'IA comme les chatbots ont fourni des réponses fixes, tandis que les thermostats intelligents ont simplement changé la température en suivant des règles simples et sans penser ou apprendre à partir de nouvelles données, des actions précédentes ou des résultats de leurs décisions. Cependant, les agents de l'IA utilisent aujourd'hui les LLM pour apprendre des données, modifier leurs actions en fonction de nouvelles informations et résoudre différents problèmes en raisonnant comme un être humain.
Mais ce n'est qu'une fraction d'une préoccupation beaucoup plus grande, car les gens peuvent également inciter l'agent à gérer une tâche, et cela le décomposera en activités plus petites, s'attaquer à chacun individuellement, puis évaluer les résultats. De plus, certains agents peuvent s'associer à gérer une tâche complexe, par laquelle l'une d'elles travaille au travail tandis que l'autre vérifie les résultats pour améliorer le résultat.
Même si cette croissance aide les entreprises à automatiser les opérations et à réduire le temps que les équipes humaines auraient utilisé, c'est aussi une menace car plus ces agents prennent des décisions, plus il devient difficile pour nous de comprendre, de prédire ou de contrôler pleinement ce qu'ils font. De même, les conséquences de leurs erreurs peuvent croître de façon exponentielle parce que ces agents de l'IA agissent sans s'arrêter pour l'apport humain.
Les entreprises adoptent avec prudence les agents de l'IA dans les départements
De nombreuses entreprises au Royaume-Uni utilisent des agents de l'IA dans leurs opérations quotidiennes, avec des services comme le service client, les ressources humaines (RH) et le marketing en testant lentement les outils et en les surveillant attentivement.
Un bon exemple commercial est les animaux de compagnie à la maison, qui ont construit un agent d'IA pour que son personnel vétérinaire fournisse des réponses et un soutien rapides pendant les bilans de compagnie, montrant à quel point les agents de l'IA restent utiles pour les petits rôles dans de vrais emplois.
Actuellement, la plupart des systèmes d'IA agentiques ont besoin de personnes pour les guider, vérifier leur travail et corriger les erreurs car ils ne sont pas prêts à remplacer complètement les humains sans supervision. Cependant, l'avenir peut obliger les entreprises à prendre des décisions difficiles qui leur permettront d'incorporer des agents de l'IA dans les systèmes, mais de garder également le contrôle.
Cryptopolitan Academy: Vous voulez développer votre argent en 2025? Apprenez à le faire avec DeFi dans notre prochaine webclass. Enregistrez votre place