Un giudice sta spingendo l'ufficio delle imposte del Regno Unito, HM Revenue & Customs (HMRC), a essere trasparente sull'uso dell'intelligenza artificiale nei suoi processi decisionali.
Il giudice ha ordinato all'HRMC di divulgare informazioni sulle modalità con cui decide in merito alle domande di credito d'imposta per la ricerca e lo sviluppo (R&S).
L'HMRC rivelerà se ha utilizzato l'intelligenza artificiale nelle decisioni sui crediti d'imposta per ricerca e sviluppo
L'Agenzia delle Entrate e delle Dogane (HM Revenue & Customs) è stata incaricata di rivelare se ha utilizzato l'intelligenza artificiale per decidere di respingere le richieste di credito d'imposta. Un tribunale di primo grado ha stabilito che l'autorità fiscale deve confermare se e quando l'intelligenza artificiale sia stata coinvolta nelle decisioni relative alle richieste di credito d'imposta per ricerca e sviluppo (R&S).
L'ordinanza è stata emanata dopo che l'esperto fiscale Tom Elsbury, che sospettava che l'intelligenza artificiale fosse stata impiegata nel processo decisionale, ha presentato una richiesta di accesso alle informazioni (FOI) nel dicembre 2023.
Sulla base del linguaggio e della struttura delle lettere di rifiuto dell'HMRC, Elsbury e diversi altri consulenti fiscali avevano concluso che nell'elaborazione delle richieste venivano utilizzati strumenti di intelligenza artificiale. La sua richiesta di accesso alle informazioni (FOI) ha chiesto conferma all'HMRC, ma il dipartimento ha rifiutato, sostenendo che rivelare tali informazioni avrebbe potuto aiutare i soggetti interessati a presentare richieste fraudolente di agevolazioni fiscali.
L'Information Commissioner's Office (ICO) ha confermato il rifiuto dell'HMRC lo scorso anno, appoggiando la posizione del dipartimento. Tuttavia, questa settimana il tribunale ha ribaltato sia le decisioni dell'HMRC che quelle dell'ICO, affermando che "l'equilibrio dell'interesse pubblico risiede nella divulgazione delle informazioni richieste".
L'HMRC ha ora tempo fino al 18 settembre per ottemperare all'ordinanza.
Il tribunale cita l'interesse pubblico e la fiducia
La sentenza ha rilevato che il rifiuto dell'HMRC di confermare o negare l'uso dell'intelligenza artificiale nelle valutazioni delle richieste di R&S "rafforza la convinzione" che tali strumenti possano essere utilizzati "forse in modo non autorizzato, minando così la fiducia dei contribuenti nel trattamento delle richieste da parte dell'HMRC"
La giudice Alexandra Marks, che presiedeva il caso, ha definito le argomentazioni di Elsbury "convincenti" e ha stabilito che il pubblico ha il diritto di sapere se l'intelligenza artificiale gioca un ruolo nel processo decisionale in materia fiscale. Elsbury si è difeso autonomamente nel procedimento.
L'ICO ha risposto alla sentenza affermando: "Abbiamo ricevuto e rispettiamo la decisione del Tribunale su questa questione. Dopo aver esaminato i dettagli, non presenteremo ricorso"
L'HMRC ha affermato che sta "esaminando attentamente la decisione" e "considerando i prossimi passi"
Negli ultimi anni, i crediti d'imposta per ricerca e sviluppo sono stati sottoposti a un controllo più rigoroso da parte dell'HMRC, a seguito della scoperta di elevati livelli di frode ed errori. Sebbene l'HMRC abbia cercato di contrastare gli abusi del sistema, diversi ordini professionali e consulenti fiscali ne hanno criticato l'approccio, definendolo eccessivamente aggressivo. Hanno segnalato che ha portato al rigetto di richieste legittime e all'abbandono totale da parte di alcune aziende.
Elsbury, fondatore della piattaforma software per l'agevolazione fiscale in materia di ricerca e sviluppo Novel, ha dichiarato ai notiziari che è importante che i contribuenti sappiano quali garanzie sono in atto e se sono state emesse sanzioni nei casi in cui uno strumento di intelligenza artificiale generativa ha influenzato una decisione.
Elsbury ha inoltre sollevato preoccupazioni specifiche circa il potenziale utilizzo di modelli linguistici pubblici di grandi dimensioni, come ChatGPT , da parte dei funzionari dell'HMRC nella valutazione delle richieste di risarcimento. Se tali strumenti venissero utilizzati, ha affermato, vi sarebbe il rischio che informazioni commercialmente sensibili, che si prevede rimangano riservate dent possano essere rese pubbliche.
Questi rischi potrebbero essere particolarmente gravi nei settori legati alla difesa nazionale, ha avvertito. Le richieste di agevolazioni fiscali per la ricerca e sviluppo possono riguardare dettagli su sistemi d'arma innovativi, difensivi o offensivi, sviluppati per il Ministero della Difesa del Regno Unito. La divulgazione di tali informazioni tramite sistemi di intelligenza artificiale pubblici "potrebbe causare conseguenze catastrofiche", ha avvertito Elsbury.

