ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

L'autorità di regolamentazione degli standard del Regno Unito punta alle società di revisionedent per reprimere la sicurezza dell'intelligenza artificiale

DiHannah CollymoreHannah Collymore
Tempo di lettura: 2 minuti.
L'ente regolatore degli standard del Regno Unito punta alle società di revisionedent per reprimere la sicurezza dell'intelligenza artificiale.
  • Il nuovo standard di audit dell'IA del Regno Unito entrerà in vigore il 31 luglio 2025 per regolamentare il crescente mercato della verifica dell'IA secondo un quadro coerente. 
  • La British Standards Institution (BSI) ha espresso preoccupazione per la proliferazione di fornitori di servizi di audit "non controllati".
  • Gli osservatori ritengono che lo standard BSI migliorerà la qualità delle valutazioni dell'IA e chiarirà quali aziende sono qualificate per certificare i sistemi di IA secondo gli standard ISO.

Secondo quanto riferito, l'organismo nazionale di normazione del Regno Unito, il British Standard Institution (BSI), è pronto a svelare un nuovo standard per le aziende che sottopongono a verificadentgli strumenti di intelligenza artificiale, nel tentativo di proteggere l'innovazione. 

Il nuovo standard, denominato UK AI audit standard, si concentrerà sulla lotta alle pratiche non regolamentate e potenzialmente rischiose nel settore emergente dell'IA, introducendo un quadro strutturato per l'audit dei sistemi di IA.

La norma entra in vigore il 31 luglio

Secondo il BSI, esistono ormai "centinaia" di gruppi "non controllati" che offrono audit con la pretesa di valutare se le aziende che utilizzano modelli di intelligenza artificiale, impiegati sia in casi d'uso tradizionali che innovativi, lo facciano in modo affidabile, equo e sicuro.

Molti dei gruppi che vendono audit basati sull'intelligenza artificiale sviluppano anche le proprie tecnologie di intelligenza artificiale, "sollevando preoccupazioni circa l'indipendenza e il rigore", ha affermato il BSI.

Secondo l' istituto, lo standard verrà lanciato il 31 luglio e costituisce il primo insieme internazionale di requisiti per standardizzare il modo in cui le società di assicurazione verificano se le aziende rispettano gli standard di gestione dell'intelligenza artificiale.

La notizia arriva poche settimane dopo che il Financial Reporting Council (FRC) del Regno Unito ha pubblicato le sue linee guida sull'intelligenza artificiale nella revisione contabile il 26 giugno 2025. Le linee guida hanno fornito un approccio coerente per l'implementazione degli strumenti di intelligenza artificiale nella revisione contabile e hanno anche sottolineato i requisiti di documentazione per supportare l'innovazione nella professione di revisione contabile.

Il nuovo standard del Regno Unito è cruciale

Sebbene il mondo abbia accolto con favore l'intelligenza artificiale, la sua vulnerabilità a errori come allucinazioni e altri pericoli che la tecnologia comporta ha aumentato la posta in gioco per quanto riguarda l'affidabilità dei servizi di garanzia dell'intelligenza artificiale. Le aziende devono inoltre preoccuparsi di conformarsi alle normative internazionali, come l'EU AI Act, rendendo i servizi di garanzia cruciali.

Le piccole aziende sono uscite allo scoperto per trarre vantaggio dall'aumento della domanda, misurandosi con concorrenti più grandi, tra cui le quattro grandi società di contabilità.

Sebbene si tratti ancora di un settore agli albori, il mercato dell'assicurazione basata sull'intelligenza artificiale genera già un valore lordo di oltre 1 miliardo di sterline per il Regno Unito. È quindi logico che le autorità di regolamentazione abbiano lanciato l'allarme sulla mancanza di standardizzazione nel settore.

Ciò significa che un'azienda può comunque offrire servizi di garanzia che si limitano a fornire consigli superficiali o a verificare semplicemente se l'IA è conforme a una particolare normativa.

Mark Thirlwell, direttore digitale globale presso BSI, ha affermato: "Le aziende devono essere sicure che la valutazione del loro sistema di gestione dell'intelligenza artificiale avvenga in modo solido, coerente e uniforme"

BSI spera che lo standard aiuti le autorità di regolamentazione, i clienti e gli investitori, aiutandoli a distinguere tra l'intelligenza artificiale garantita da un fornitore di servizi di garanzia certificato, "supportando così l'innovazione responsabile dell'intelligenza artificiale"

Lo standard viene ora definito un "passo avanti fondamentale per l'ecosistema di garanzia dell'IA", in quanto chiarisce quali aziende sono qualificate per certificare i sistemi di IA secondo gli standard ISO.

Inioluwa Deborah Raji, ricercatrice presso l'Università della California a Berkeley specializzata in audit e valutazioni dell'intelligenza artificiale, ha sottolineato che "molte società di assicurazione hanno utilizzato sistemi proprietari per effettuare audit dell'intelligenza artificiale" e, sebbene le aziende "pagheranno per effettuare valutazioni in base a standard [proprietari]", ha avvertito che attualmente non esiste alcun modo per verificare esternamente la qualità di questi standard.

Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO