Il Dipartimento del Commercio degli Stati Uniti propone nuove regole di segnalazione per i fornitori di intelligenza artificiale e cloud

- Gli Stati Uniti impongono agli sviluppatori di intelligenza artificiale di segnalare le misure di sicurezza informatica e i risultati dei test di rischio.
- I fornitori di servizi cloud devono affrontare nuove regole di reporting per garantire la sicurezza della tecnologia AI.
- Il Dipartimento del Commercio introduce normative più severe per la sicurezza dell'intelligenza artificiale e del cloud.
Il Dipartimento del Commercio degli Stati Uniti ha proposto nuovi requisiti di rendicontazione per gli sviluppatori di intelligenza artificiale avanzata e i fornitori di servizi cloud, per garantire la sicurezza e la protezione della tecnologia.
Il Bureau of Industry and Security (BIS) ha chiarito che le aziende che creano frontiere e le società di gestione di cluster ingegneristici che investono nella creazione di supercomputer saranno tenute a sottoporre alcune attività di sviluppo essenziali alle autorità federali. Questa tendenza mira a ridurre le minacce alla sicurezza informatica e l'uso improprio delle risorse di intelligenza artificiale.
Secondo la nuova proposta, gli sviluppatori saranno tenuti a divulgare informazioni dettagliate sui loro sistemi di intelligenza artificiale, concentrandosi in particolare sulle misure di sicurezza informatica e sulle iniziative di "red-teaming". Il "red-teaming" è una tecnica utilizzata nella sicurezza informatica per valutare gli usi dannosi di un'IA, come il supporto al cyberterrorismo o la facilitazione della creazione di armi di distruzione di massa.
Gli sviluppatori di intelligenza artificiale devono affrontare nuovi obblighi per segnalare misure di sicurezza informatica e test di rischio
La proposta del Dipartimento del Commercio richiederebbe inoltre agli sviluppatori di intelligenza artificiale di includere nei loro report i risultati delle attività di red-teaming, in particolare quelle relative a capacità pericolose come gli attacchi informatici. Questo metodo, derivato dalle simulazioni della Guerra Fredda,denti rischi simulando attacchi o violazioni.
Le organizzazioni sarebbero tenute ad aggiornare la capacità dei loro sistemi di intelligenza artificiale di resistere agli attacchi, anche da parte di interessi stranieri o attori non statali che potrebbero voler abusare del sistema per scopi dannosi critici.
L'intelligenza artificiale generativa, in grado di creare testo, immagini o video in base alle richieste degli utenti, ha suscitato preoccupazione. Sebbene la tecnologia offra progressi in molti ambiti, ha anche aumentato i timori su possibili minacce come la perdita di posti di lavoro, l'interferenza nelle elezioni e il rischio di un predominio dell'intelligenza artificiale sugli esseri umani.
Le nuove linee guida per la rendicontazione mirano a garantire lo sviluppo sicuro e affidabile dei modelli di intelligenza artificiale, riducendo la possibilità che questi rischi si concretizzino.
I fornitori di servizi cloud sono tenuti a soddisfare nuovi standard di rendicontazione sulla sicurezza e sullo sviluppo dell'intelligenza artificiale
Oltre agli sviluppatori di intelligenza artificiale, le norme proposte riguarderanno anche i fornitori di servizi cloud come Amazon Web Services (AWS), Google Clouds e Microsoft Azure. Queste piattaforme, essenziali per lo sviluppo dell'intelligenza artificiale, dovranno rispettare rigorosi standard di sicurezza informatica delle loro infrastrutture. Il Dipartimento del Commercio ha sottolineato che queste informazioni sono importanti per evitare l'abuso della tecnologia statunitense da parte di altri Paesi.
L'iniziativa normativa segue l'Ordine Esecutivo deldent Joe Biden firmato nell'ottobre 2023. L'ordine impone agli sviluppatori di tecnologie di intelligenza artificiale di presentare i risultati dei test di sicurezza al governo degli Stati Uniti prima di rendere pubbliche le loro tecnologie. La bozza pubblicata dal Dipartimento del Commercio è in linea con questo obiettivo più ampio, che mira a proteggere la sicurezza nazionale, la salute pubblica e l'economia del Paese dalle minacce poste dall'intelligenza artificiale.
Questa proposta fa seguito anche ai precedenti sforzi avviati dall'amministrazione Biden per adottare ulteriori misure che impediscano alla Cina di accedere alla tecnologia statunitense per lo sviluppo dell'intelligenza artificiale, il che suggerisce crescenti preoccupazioni per la sicurezza in questo settore in continua espansione.
Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














