Il governo degli Stati Uniti implementa un nuovo requisito di divulgazione dei test di sicurezza dell'intelligenza artificiale

- Biden impone alle aziende di intelligenza artificiale di divulgare i test di sicurezza, garantendo la sicurezza e la responsabilità pubblica.
- Il National Institute of Standards and Technology creerà un quadro uniforme per la sicurezza dell'intelligenza artificiale, per garantire la coerenza del settore.
- Il governo adotta misure per la supervisione dell'intelligenza artificiale, conduce valutazioni dei rischi e collabora a livello globale per una regolamentazione standardizzata.
In una mossa decisiva per garantire la sicurezza dei sistemi di intelligenza artificiale (IA), l'amministrazione Biden ha introdotto l'obbligo per gli sviluppatori dei principali sistemi di IA di divulgare al governo i risultati dei test di sicurezza. Questa iniziativa rientra nell'approccio globale delineato in un ordine esecutivo firmato daldent degli Stati Uniti Joe Biden tre mesi fa, volto a gestire efficacemente il panorama in rapida evoluzione della tecnologia dell'IA.
Il consiglio della Casa Bianca sull'intelligenza artificiale esamina i progressi
Il Consiglio della Casa Bianca per l'IA si riunirà lunedì per valutare i progressi compiuti nell'attuazione dell'ordine esecutivo. Gli obiettivi a 90 giorni delineati nell'ordine includevano un mandato ai sensi del Defense Production Act, che obbligava le aziende di IA a condividere informazioni cruciali, in particolare i risultati dei test di sicurezza, con il Dipartimento del Commercio. Ben Buchanan, consigliere speciale della Casa Bianca per l'IA, ha sottolineato l'intenzione del governo di garantire la sicurezza dei sistemi di IA prima della loro diffusione al pubblico.
Obbligo di divulgazione dei test di sicurezza
In base all'ordine esecutivo, le aziende di intelligenza artificiale sono tenute a divulgare i risultati dei test di sicurezza, segnando un passo significativo verso la trasparenza e la responsabilità nel settore dell'intelligenza artificiale. La divulgazione comporterà la condivisione di informazioni vitali con il Dipartimento del Commercio e il governo è risoluto nel suo impegno a garantire che i sistemi di intelligenza artificiale soddisfino rigorosi standard di sicurezza.
Sebbene le aziende di software si siano impegnate a definire una serie di categorie per i test di sicurezza, attualmente non esiste uno standard comune per questi test. Il National Institute of Standards and Technology, come delineato nell'ordine esecutivo, svolgerà un ruolo fondamentale nello sviluppo di un quadro uniforme per la valutazione della sicurezza. Questo approccio standardizzato mira a garantire coerenza e affidabilità alle valutazioni di sicurezza nell'intero panorama dell'intelligenza artificiale.
L'impatto dell'intelligenza artificiale sull'economia e sulla sicurezza nazionale
L'intelligenza artificiale è emersa come un fattore fondamentale sia per la prosperità economica che per la sicurezza nazionale, spingendo il governo federale ad adottare misure proattive. Il lancio di nuovi strumenti di intelligenza artificiale, come ChatGPT, in grado di generare testo, immagini e suoni, ha introdotto nuove dimensioni di investimento e incertezza. L'amministrazione Biden non si concentra solo sulle normative nazionali, ma sta anche collaborando attivamente con i partner internazionali, tra cui l'Unione Europea, per stabilire standard globali per la gestione della tecnologia di intelligenza artificiale.
Bozza di norma del Dipartimento del Commercio sulle aziende cloud statunitensi
In linea con gli sforzi del governo, il Dipartimento del Commercio ha elaborato una bozza di norma rivolta specificamente alle aziende cloud statunitensi che forniscono server agli sviluppatori di intelligenza artificiale stranieri. Questa norma mira a garantire che lo sviluppo di intelligenza artificiale che utilizza infrastrutture cloud con sede negli Stati Uniti rispetti rigorosi standard di sicurezza e normativi, rafforzando ulteriormente l'impegno del governo nel supervisionare le applicazioni di intelligenza artificiale sia a livello nazionale che globale.
Nove agenzie federali, tra cui i Dipartimenti della Difesa, dei Trasporti, del Tesoro e della Salute e dei Servizi Umani, hanno completato le valutazioni dei rischi riguardanti l'integrazione dell'IA nelle infrastrutture nazionali critiche. Queste valutazioni sono cruciali perdentpotenziali vulnerabilità e garantire che le applicazioni di IA siano implementate in modo da salvaguardare gli interessi nazionali.
Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















