L'autorité de régulation conseille aux organismes de bienfaisance de mettre en œuvre une politique interne en matière d'IA

- La Charity Commission conseille les organismes de bienfaisance sur la mise en œuvre de politiques internes en matière d'IA pour une utilisation responsable de l'IA et l'atténuation des risques.
- Le recours croissant à l'IA dans les organisations caritatives souligne la nécessité d'une évaluation rigoureuse des avantages et des risques.
- La supervision humaine demeure cruciale pour maintenir l'intégrité des opérations caritatives malgré l'intégration de l'IA.
La Commission des organismes de bienfaisance a indiqué, dans un récent article de blog, que les organismes de bienfaisance pourraient envisager d'adopter des politiques internes en matière d'intelligence artificielle (IA). Cette recommandation fait suite à la constatation par la Commission du développement rapide de l'IA dans le secteur.
Utilisation croissante de l'IA dans les organisations caritatives
D'après le rapport 2023 sur les compétences numériques des organismes caritatifs, environ 35 % des organismes interrogés utilisent déjà l'IA pour de nombreuses tâches courantes, et 26 % prévoient d'intégrer prochainement cette technologie à leurs activités. Chaque nouvelle avancée en matière d'IA offre aux organismes caritatifs de nouvelles perspectives pour optimiser leurs processus.
La Commission des organismes de bienfaisance souligne toutefois qu’il est « primordial de veiller à ce que l’IA soit utilisée de manière responsable pour servir les objectifs de l’organisme ». L’IA peut offrir de nombreux avantages, mais les risques doivent être évalués et atténués de façon appropriée. Il convient également de mettre en balance les avantages et les risques potentiels liés à l’adoption de l’IA au regard de la mission et des responsabilités de l’organisme.
Considérations relatives aux organismes de bienfaisance
Les organismes caritatifs sont encouragés à évaluer comment l'IA pourrait être utilisée efficacement au sein de leurs structures. Cela impliquera une évaluation concrète des avantages et des risques liés aux outils d'IA ; l'dentdes compétences nécessaires à un déploiement réussi de l'IA ; et enfin, l'dentdes acteurs du développement de l'IA susceptibles de jouer un rôle dans sa gouvernance afin d'en garantir une utilisation appropriée et de corriger rapidement les incidents ou erreurs.
Procéder avec prudence
Toutefois, les dirigeants d'organismes caritatifs devraient y réfléchir avec prudence et garder à l'esprit certains dangers liés à une telle évolution. Il en va de même pour l'IA : si elle peut grandement améliorer de nombreux aspects du secteur caritatif, elle n'est pas infaillible et peut facilement générer des données erronées, voire biaisées.
Il est rappelé aux administrateurs leurs responsabilités ultimes et, simultanément, mis en garde contre une utilisation superficielle ou exclusive de l'IA. Le recours à l'IA par la Commission des organismes de bienfaisance expose ces derniers à des risques très élevés ; ils doivent donc être vigilants face aux écueils et veiller à ce que l'IA soit utilisée de manière éthique et responsable, sans jamais outrepasser ses limites.
Le rôle de la surveillance humaine
Cette dimension humaine est essentielle, notamment pour préserver l'intégrité des opérations caritatives et des interactions avec les bénéficiaires. Si l'intégration de l'IA peut paraître complexe, la Commission des organismes de bienfaisance souligne que de formidables opportunités s'offrent à ces organismes grâce à l'utilisation et au développement de cette technologie émergente. Une adoption responsable de l'IA permettra aux organismes caritatifs d'améliorer leur efficacité et la qualité de leurs services, tout en leur assurant une veille technologique constante.
La recommandation de la Commission des organismes de bienfaisance, invitant ces derniers à élaborer leurs propres politiques internes en matière d'IA, suggère donc une intégration accrue de l'IA dans le secteur caritatif. Malgré ses nombreux avantages, l'IA présente des défis spécifiques qui nécessiteront une planification et un suivi rigoureux. Une telle approche, fondée sur des principes, permettra aux organismes de bienfaisance d'exploiter pleinement le potentiel de l'IA pour impulser et réaliser des changements positifs, tout en atténuant les risques associés.
Article original tiré de https://www.civilsociety.co.uk/governance/regulator-tells-charities-to-consider-having-an-internal-artificial-intelligence-policy.html
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















