ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Il Dipartimento del Commercio degli Stati Uniti propone nuove regole di segnalazione per i fornitori di intelligenza artificiale e cloud

DiChris MurithiChris Murithi
Tempo di lettura: 2 minuti.
Secondo uno studio, gli sviluppatori di software esperti hanno completato il lavoro il 19% più lentamente quando utilizzano l'intelligenza artificiale
  • Gli Stati Uniti impongono agli sviluppatori di intelligenza artificiale di segnalare le misure di sicurezza informatica e i risultati dei test di rischio.
  • I fornitori di servizi cloud devono affrontare nuove regole di reporting per garantire la sicurezza della tecnologia AI.
  • Il Dipartimento del Commercio introduce normative più severe per la sicurezza dell'intelligenza artificiale e del cloud.

Il Dipartimento del Commercio degli Stati Uniti ha proposto nuovi requisiti di rendicontazione per gli sviluppatori di intelligenza artificiale avanzata e i fornitori di servizi cloud, per garantire la sicurezza e la protezione della tecnologia.

Il Bureau of Industry and Security (BIS) ha chiarito che le aziende che creano frontiere e le società di gestione di cluster ingegneristici che investono nella creazione di supercomputer saranno tenute a sottoporre alcune attività di sviluppo essenziali alle autorità federali. Questa tendenza mira a ridurre le minacce alla sicurezza informatica e l'uso improprio delle risorse di intelligenza artificiale.

Secondo la nuova proposta, gli sviluppatori saranno tenuti a divulgare informazioni dettagliate sui loro sistemi di intelligenza artificiale, concentrandosi in particolare sulle misure di sicurezza informatica e sulle iniziative di "red-teaming". Il "red-teaming" è una tecnica utilizzata nella sicurezza informatica per valutare gli usi dannosi di un'IA, come il supporto al cyberterrorismo o la facilitazione della creazione di armi di distruzione di massa.

Gli sviluppatori di intelligenza artificiale devono affrontare nuovi obblighi per segnalare misure di sicurezza informatica e test di rischio

La proposta del Dipartimento del Commercio richiederebbe inoltre agli sviluppatori di intelligenza artificiale di includere nei loro report i risultati delle attività di red-teaming, in particolare quelle relative a capacità pericolose come gli attacchi informatici. Questo metodo, derivato dalle simulazioni della Guerra Fredda,denti rischi simulando attacchi o violazioni.

Le organizzazioni sarebbero tenute ad aggiornare la capacità dei loro sistemi di intelligenza artificiale di resistere agli attacchi, anche da parte di interessi stranieri o attori non statali che potrebbero voler abusare del sistema per scopi dannosi critici.

L'intelligenza artificiale generativa, in grado di creare testo, immagini o video in base alle richieste degli utenti, ha suscitato preoccupazione. Sebbene la tecnologia offra progressi in molti ambiti, ha anche aumentato i timori su possibili minacce come la perdita di posti di lavoro, l'interferenza nelle elezioni e il rischio di un predominio dell'intelligenza artificiale sugli esseri umani.

Le nuove linee guida per la rendicontazione mirano a garantire lo sviluppo sicuro e affidabile dei modelli di intelligenza artificiale, riducendo la possibilità che questi rischi si concretizzino.

I fornitori di servizi cloud sono tenuti a soddisfare nuovi standard di rendicontazione sulla sicurezza e sullo sviluppo dell'intelligenza artificiale

Oltre agli sviluppatori di intelligenza artificiale, le norme proposte riguarderanno anche i fornitori di servizi cloud come Amazon Web Services (AWS), Google Clouds e Microsoft Azure. Queste piattaforme, essenziali per lo sviluppo dell'intelligenza artificiale, dovranno rispettare rigorosi standard di sicurezza informatica delle loro infrastrutture. Il Dipartimento del Commercio ha sottolineato che queste informazioni sono importanti per evitare l'abuso della tecnologia statunitense da parte di altri Paesi.

L'iniziativa normativa segue l'Ordine Esecutivo deldent Joe Biden firmato nell'ottobre 2023. L'ordine impone agli sviluppatori di tecnologie di intelligenza artificiale di presentare i risultati dei test di sicurezza al governo degli Stati Uniti prima di rendere pubbliche le loro tecnologie. La bozza pubblicata dal Dipartimento del Commercio è in linea con questo obiettivo più ampio, che mira a proteggere la sicurezza nazionale, la salute pubblica e l'economia del Paese dalle minacce poste dall'intelligenza artificiale.

Questa proposta fa seguito anche ai precedenti sforzi avviati dall'amministrazione Biden per adottare ulteriori misure che impediscano alla Cina di accedere alla tecnologia statunitense per lo sviluppo dell'intelligenza artificiale, il che suggerisce crescenti preoccupazioni per la sicurezza in questo settore in continua espansione.

Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO