Un juez está presionando a la oficina tributaria del Reino Unido, HM Revenue & Customs (HMRC), para que sea transparente sobre el uso de IA en sus procesos de toma de decisiones.
El juez ordenó a HRMC que revelara información sobre cómo decide sobre las solicitudes de crédito fiscal para investigación y desarrollo (I+D).
HMRC revelará si utilizó IA en las decisiones de crédito fiscal por I+D
Se ha ordenado a la Agencia Tributaria y de Aduanas (HM Revenue & Customs) que revele si utilizó inteligencia artificial para decidir rechazar solicitudes de crédito fiscal. Un tribunal de primera instancia ha dictaminado que la autoridad fiscal debe confirmar si la IA participó, y en qué momento, en la toma de decisiones sobre solicitudes de crédito fiscal por investigación y desarrollo (I+D).
La orden se produjo después de que el profesional fiscal Tom Elsbury, que sospechaba que se había implementado inteligencia artificial en el proceso de toma de decisiones, presentó una solicitud de Libertad de Información (FOI) en diciembre de 2023.
Basándose en el lenguaje y la estructura de las cartas de rechazo de HMRC, Elsbury y varios otros asesores fiscales concluyeron que se estaban utilizando herramientas de IA para procesar las solicitudes. Su solicitud de acceso a la información (FOI) buscaba la confirmación de HMRC, pero el departamento se negó, argumentando que revelar dicha información podría facilitar que las personas intentaran presentar solicitudes fraudulentas de desgravación fiscal.
La Oficina del Comisionado de Información (ICO) confirmó la negativa de HMRC el año pasado, coincidiendo con la postura del departamento. Sin embargo, esta semana el tribunal revocó las decisiones de HMRC y de la ICO, afirmando que «el interés público recae en la divulgación de la información solicitada».
HMRC ahora tiene hasta el 18 de septiembre para cumplir con la orden.
El Tribunal cita el interés público y la confianza
El fallo señaló que la negativa de HMRC a confirmar o negar el uso de IA en las evaluaciones de reclamaciones de I+D "refuerza la creencia" de que dichas herramientas pueden estar utilizándose "quizás de manera no autorizada, lo que socava la confianza de los contribuyentes en el tratamiento de las reclamaciones por parte de HMRC"
La jueza Alexandra Marks, quien presidió el caso, calificó los argumentos de Elsbury de "convincentes" y concluyó que el público tiene derecho a saber si la IA influye en la toma de decisiones fiscales. Elsbury se representó a sí mismo en el proceso.
La ICO respondió al fallo declarando: «Hemos recibido y respetamos la decisión del Tribunal sobre este asunto. Tras revisar los detalles, no apelaremos»
HMRC dijo que estaba “revisando cuidadosamente la decisión” y “considerando nuestros próximos pasos”
Los créditos fiscales para I+D han sido objeto de un mayor escrutinio por parte de HMRC en los últimos años tras descubrirse altos niveles de fraude y error. Si bien HMRC ha buscado frenar el abuso del sistema, varios organismos profesionales y asesores fiscales han criticado su enfoque por ser excesivamente agresivo. Advirtieron que ha provocado el rechazo de solicitudes legítimas y que algunas empresas incluso han evitado presentar solicitudes.
Elsbury, el fundador de la plataforma de software de alivio de impuestos sobre I+D Novel, dijo a los medios de comunicación que era importante que los contribuyentes supieran qué garantías estaban vigentes y si se habían emitido sanciones en los casos en que una herramienta de IA generativa había influido en una decisión.
Elsbury también planteó inquietudes específicas sobre el posible uso de modelos lingüísticos extensos públicos, como ChatGPT , por parte de los funcionarios de HMRC al evaluar las reclamaciones. Si se utilizaran dichas herramientas, afirmó, se correría el riesgo de que información comercialmente sensible, que se espera que permanezca confidencial dent pudiera quedar expuesta al dominio público.
Estos riesgos podrían ser especialmente graves en industrias vinculadas a la defensa nacional, advirtió. Las solicitudes de desgravación fiscal por I+D pueden incluir detalles de sistemas de armas defensivas u ofensivas innovadoras desarrolladas para el Ministerio de Defensa del Reino Unido. La divulgación de dicha información a través de sistemas públicos de IA «puede tener consecuencias catastróficas», advirtió Elsbury.

