À l'approche du Sommet britannique sur la sécurité de l'IA, une étude récente a mis en lumière les vives inquiétudes des professionnels de l'informatique britanniques concernant le déploiement d'applications d'intelligence artificielle générative (IA générative). Selon cette étude, menée par O'Reilly en septembre 2023, 93 % des professionnels de l'informatique britanniques expriment des appréhensions quant aux ambitions de leur entreprise en matière d'IA générative.
La formation insuffisante est la principale préoccupation.
La principale préoccupation des professionnels de l'informatique concerne le manque perçu de compréhension et de formation au niveau de la direction, 28 % d'entre eux citant ce point comme leur principale inquiétude. Cela soulève des questions quant à la capacité des dirigeants à superviser efficacement la mise en œuvre de l'IA générative.
Évaluation des risques et compréhension opérationnelle
L'étude souligne également que 23 % des professionnels de l'informatique s'inquiètent de l'absence d'évaluations complètes des risques, tandis que 22 % craignent une compréhension insuffisante des aspects opérationnels de l'IA générative. Ces préoccupations indiquent que les organisations pourraient se lancer dans des initiatives d'IA sans appréhender pleinement les risques et les complexités opérationnelles associés.
Les ambitions du gouvernement britannique en matière d'IA
Alors que le gouvernement britannique vise à créer un environnement réglementaire favorable à l'IA grâce au prochain Sommet mondial sur la sécurité de l'IA, l'étude révèle que 25 % des professionnels de l'informatique manquent de confiance dans les capacités actuelles de leur organisation à garantir la conformité avec l'évolution de la réglementation en matière d'IA.
Les niveaux de confiance varient
En revanche, 51 % des professionnels de l'informatique se disent « plutôt »dent quant aux compétences de leur organisation pour s'adapter à l'évolution du cadre réglementaire. Ces niveaux de confiance variables soulignent la nécessité d'une approche plus cohérente et unifiée de la réglementation de l'IA.
Trevor Dearing, directeur des infrastructures critiques chez Illumio, souligne l'urgence d'agir : « Si nous voulons réellement protéger le pays contre l'IA, nous devons nous inspirer des stratégies américaines et imposer la mise en œuvre de mesures de sécurité telles que le modèle Zero Trust. » Dearing estime que l'adoption de telles stratégies peut contribuer à réduire l'impact potentiel des attaques d'IA.
Sommes-nous prêts pour l'IA ?
Le rapport O'Reilly souligne un décalage potentiel entre les ambitions du Royaume-Uni en matière d'IA et les compétences et la préparation réelles des professionnels de l'informatique. Environ 71 % des équipes informatiques estiment que ce déficit de compétences numériques pourrait freiner l'ambition du gouvernement britannique de devenir un leader mondial de l'IA.
Malgré des investissements considérables dans l'IA générative, l'étude souligne que les politiques en entreprise et la formation du personnel n'ont pas suivi le même rythme. De manière significative, les employés hors des services informatiques ont reçu une formation limitée (32 %) ou aucune formation (36 %) concernant l'impact de l'IA générative sur leur environnement de travail.
Préoccupations concernant la formation des employés
Ce manque de formation des employés est cité comme une préoccupation majeure par 27 % des professionnels de l'informatique, au même titre que leurs inquiétudes concernant les menaces de cybersécurité avancées posées par ces technologies. Le rapport suggère la mise en place de programmes de formation complets pour combler ce déficit de connaissances.
Absence de politique en matière d'IA dans les entreprises
L'étude d'O'Reilly révèle que 41 % des professionnels de l'informatique signalent l'absence de politique en milieu de travail concernant l'utilisation des technologies d'IA générative, et 11 % supplémentaires ne sont pas sûrs de la politique en vigueur dans leur organisation.
Absence de politiques formelles
Une étude récente de l'ISACA menée auprès de 2 300 professionnels de la confiance numérique a révélé que seulement 10 % des organisations disposent de politiques formelles et exhaustives encadrant l'utilisation de l'intelligence artificielle. Ce manque de politiques soulève des questions quant à la sécurité des données et à l'éthique de l'utilisation de l'IA au sein des organisations.
Demande de perfectionnement des compétences
Face à ces défis, 82 % des professionnels de l'informatique souhaitent davantage d'opportunités de formation et de perfectionnement en IA générative. Notamment, 61 % envisagent de changer d'employeur l'année prochaine si leur entreprise ne propose pas de formations en IA générative.
Alors que 70 % des participants à l'enquête ISACA sur l'IA générative 2023 estiment que l'IA aura un impact positif sur leur emploi, un pourcentage impressionnant de 81 % d'entre eux reconnaissent la nécessité d'une formation complémentaire pour conserver leur emploi ou progresser dans leur carrière. Ceci souligne l'importance de la formation continue dans le domaine en constante évolution de l'IA.
Un appel à l'action
Alexia Pedersen, vice-présidente EMEA chez O'Reilly, souligne l'importance d'investir dans l'IA générative et de veiller à ce que le personnel soit correctement formé, tout en mettant en œuvre des politiques de travail rigoureuses. Elle déclare : « Il s'agit non seulement d'une stratégie pour améliorer le recrutement et la fidélisation face à une pénurie croissante de compétences, mais aussi d'une étape indispensable pour garantir des déploiements d'IA éthiques et sûrs si la Grande-Bretagne souhaite réaliser ses ambitions internationales. »
Alors que le Royaume-Uni s'efforce de maîtriser le domaine complexe de l'IA générative, il est clair que le secteur privé et le gouvernement doivent s'attaquer aux problèmes liés à la formation des cadres, à la conformité réglementaire, à la formation des employés et à l'élaboration de politiques afin d'exploiter pleinement le potentiel de l'IA tout en se prémunissant contre ses risques. Le prochain Sommet sur la sécurité de l'IA offre une occasion cruciale de collaborer et de développer une approche unifiée face à ces défis.

