Un juge exhorte l'administration fiscale britannique, HM Revenue & Customs (HMRC), à faire preuve de transparence quant à l'utilisation de l'IA dans ses processus décisionnels.
Le juge a ordonné à HMRC de divulguer des informations sur la manière dont elle statue sur les demandes de crédit d'impôt pour la recherche et le développement (R&D).
L'administration fiscale britannique (HMRC) devra indiquer si elle a utilisé l'intelligence artificielle dans ses décisions relatives au crédit d'impôt pour la recherche et le développement
L'administration fiscale britannique (HM Revenue & Customs) a reçu l'ordre de révéler si elle a eu recours à l'intelligence artificielle pour décider du rejet de demandes de crédit d'impôt. Un tribunal de première instance a statué que l'administration fiscale devait confirmer si et quand l'IA a été utilisée dans le traitement des demandes de crédit d'impôt pour la recherche et le développement (R&D).
Cette décision fait suite à une demande d'accès à l'information (DAI) déposée en décembre 2023 par le fiscaliste Tom Elsbury, qui soupçonnait l'utilisation de l'IA dans le processus de décision.
Au vu du langage et de la structure des lettres de rejet du HMRC, Elsbury et plusieurs autres conseillers fiscaux avaient conclu que des outils d'IA étaient utilisés pour traiter les demandes. Sa demande d'accès à l'information visait à obtenir une confirmation du HMRC, mais ce dernier a refusé, arguant que la divulgation de telles informations pourrait aider des personnes tentant de déposer des demandes de déduction fiscale frauduleuses.
L'Office du commissaire à l'information (ICO) avait confirmé le refus du HMRC l'an dernier, se rangeant du côté de l'administration fiscale. Cependant, le tribunal a cassé cette semaine les décisions du HMRC et de l'ICO, déclarant que « l'intérêt public justifie la divulgation des informations demandées ».
L’administration fiscale britannique (HMRC) a désormais jusqu’au 18 septembre pour se conformer à l’ordonnance.
Le tribunal invoque l'intérêt public et la confiance
La décision souligne que le refus du HMRC de confirmer ou d'infirmer l'utilisation de l'IA dans l'évaluation des demandes de crédit d'impôt pour la R&D « renforce la conviction » que de tels outils pourraient être utilisés « peut-être de manière non autorisée, sapant ainsi la confiance des contribuables dans le traitement des demandes par le HMRC »
La juge Alexandra Marks, qui présidait l'affaire, a qualifié les arguments d'Elsbury de « convaincants » et a estimé que le public a le droit de savoir si l'intelligence artificielle intervient dans la prise de décision fiscale. Elsbury s'est représenté lui-même lors de la procédure.
L'ICO a réagi à la décision en déclarant : « Nous avons pris connaissance de la décision du Tribunal et la respectons. Après examen des détails, nous ne ferons pas appel. »
L’administration fiscale britannique (HMRC) a déclaré qu’elle « examinait attentivement la décision » et qu’elle « réfléchissait aux prochaines étapes »
Ces dernières années, le crédit d'impôt pour la recherche et le développement (CIR) a fait l'objet d'un contrôle renforcé de la part du HMRC suite à la découverte de fraudes et d'erreurs importantes. Si le HMRC s'est efforcé de lutter contre les abus du système, plusieurs organismes professionnels et conseillers fiscaux ont critiqué son approche, la jugeant excessivement agressive. Ils ont averti que cette approche avait conduit au rejet de demandes légitimes et incité certaines entreprises à renoncer purement et simplement à en faire la demande.
Elsbury, le fondateur de Novel, la plateforme logicielle de crédit d'impôt pour la R&D, a déclaré aux médias qu'il était important que les contribuables sachent quelles garanties étaient en place et si des sanctions avaient été infligées dans les cas où un outil d'IA générative avait influencé une décision.
Elsbury a également soulevé des inquiétudes spécifiques quant à l'utilisation potentielle de grands modèles de langage publics, tels que ChatGPT , par les agents du HMRC lors de l'évaluation des demandes. Si de tels outils étaient utilisés, a-t-il déclaré, il existerait un risque que des informations commercialement sensibles, censées rester confidentielles dent soient divulguées au public.
Ces risques pourraient être particulièrement graves dans les industries liées à la défense nationale, a-t-il averti. Les demandes de crédit d'impôt pour la recherche et le développement peuvent inclure des informations sur des systèmes d'armes défensifs ou offensifs innovants développés pour le ministère britannique de la Défense. La divulgation de telles informations par le biais de systèmes d'intelligence artificielle publics « pourrait avoir des conséquences catastrophiques », a prévenu Elsbury.

