Il vertice sull'intelligenza artificiale di Bletchley bilancia minacce e opportunità economiche

- I leader mondiali hanno discusso dei rischi e delle opportunità dell'intelligenza artificiale a Bletchley Park. Alcuni hanno messo in dubbio il coinvolgimento della Cina, ma l'evento ha ottenuto un successomatic .
- Gli Stati Uniti hanno emesso un ordine esecutivo per regolamentare l'IA, concentrandosi su rischi noti come la privacy e la concorrenza. Il dibattito su cosa e chi dovrebbe regolamentare l'IA continua.
- I governi devono trovare un equilibrio tra la lotta alle minacce dell'IA e lo sfruttamento del suo potenziale economico. Il mondo osserva l'evoluzione della regolamentazione e dell'innovazione in materia di IA.
che si proponeva di affrontare le molteplici sfide poste da artificiale. L'evento, tenutosi l'1 e il 2 novembre 2023, ha suscitato notevole attenzione e speculazioni prima del suo inizio. L'attenzione del vertice si è concentrata principalmente sulla mitigazione dei rischi esistenziali associati all'intelligenza artificiale avanzata, ma ha anche approfondito le opportunità economiche e le considerazioni normative.
Esito positivo del vertice di Bletchley sull'intelligenza artificiale
Nonostante lo scetticismo iniziale riguardo alle conferme degli ospiti e l'assenza di partecipanti di spicco, il summit sulla sicurezza dell'IA a Bletchley Park ha superato le aspettative. I critici, tra cui alcuni conservatori e politici statunitensi favorevoli alla Cina, hanno messo in dubbio la presenza di rappresentanti cinesi all'evento. Inoltre, sono stati sollevati dubbi sull'ambizioso tentativo del Regno Unito di guidare gli sforzi globali nella regolamentazione dell'IA.
Tuttavia, il vertice si è rivelato un successomatic per la Gran Bretagna. Ha vantato una lista di ospiti di rilievo, con la presenza di figure di spicco come Sam Altman di Open AI e ladent degli Stati Uniti Kamala Harris. Il momento clou del vertice è stata la Dichiarazione di Bletchley, un ampio impegno che coinvolge 28 nazioni e l'Unione Europea a collaborare per affrontare i rischi esistenziali dell'IA. In particolare, sia gli Stati Uniti che la Cina, insieme a Regno Unito, India e Australia, hanno promesso il loro sostegno.
Accesso del governo ai modelli di intelligenza artificiale
Durante il vertice, il Primo Ministro Rishi Sunak ha annunciato uno sviluppo significativo: le aziende di intelligenza artificiale hanno accettato di concedere ai governi un accesso anticipato ai loro modelli per le valutazioni di sicurezza. Tuttavia, l'annuncio è stato vago e ha ricalcato una precedente dichiarazione rilasciata a giugno. È stata inoltre annunciata la creazione della Frontier AI Task Force del Regno Unito, un organismo permanente incaricato di sovrintendere alla sicurezza.
Ordine esecutivo degli Stati Uniti sull'intelligenza artificiale
Pochi giorni prima del vertice di Bletchley, ladent statunitense Kamala Harris ha sottolineato l'impegno dell'America a rimanere leader tecnologico nell'intelligenza artificiale. Contemporaneamente, ildent Joe Biden ha emesso un atteso ordine esecutivo volto a una regolamentazione completa delle più grandi aziende di intelligenza artificiale al mondo.
L'ordine esecutivo si concentra principalmente sulla gestione dei rischi noti,dente a breve termine dell'IA, tra cui privacy, concorrenza e discriminazione algoritmica. Dà priorità alla salvaguardia dei diritti civili e delle libertà degli americani. L'ordine impone a 25 agenzie e dipartimenti federali, che supervisionano settori come l'edilizia abitativa, la salute e la sicurezza nazionale, di stabilire standard e regolamenti per l'uso e la supervisione dell'IA. Inoltre, introduce nuovi requisiti di reporting e test per le aziende che sviluppano i modelli di IA più potenti e obbliga le aziende i cui modelli potrebbero rappresentare una minaccia per la sicurezza nazionale a condividere le proprie misure di sicurezza.
Dibattiti globali sulla regolamentazione dell'intelligenza artificiale
Si prevede che l'Unione Europea presenterà un'ambiziosa legislazione in materia di intelligenza artificiale entro la fine dell'anno. Nel frattempo, il gruppo dei G7 delle economie sviluppate sta lavorando a un codice di condotta separato per le aziende di intelligenza artificiale. Anche la Cina ha presentato una propria iniziativa in tal senso.
I dibattiti chiave ruotano attorno a quali aspetti dell'IA richiedano una regolamentazione e a chi dovrebbe assumersi questa responsabilità. Le aziende tecnologiche generalmente propugnano una regolamentazione limitata, concentrandosi sulle applicazioni di IA più avanzate piuttosto che sui modelli sottostanti. Tuttavia, con i rapidi progressi tecnologici, questa posizione sta diventando sempre più difficile da mantenere.
Stati Uniti e Regno Unito ritengono che le agenzie governative esistenti siano in grado di supervisionare la regolamentazione dell'IA. Tuttavia, i critici sono preoccupati per i tracdegli enti regolatori statali; figure di spicco del settore dell'IA, come Mustafa Suleyman, co-fondatore di DeepMind, hanno proposto l'istituzione di un regime di governance globale simile all'IPCC (Intergovernmental Panel on Climate Change), volto a migliorare la trasparenza nel lavoro delle aziende di IA. Suleyman ha persino suggerito la possibilità di sospendere la formazione della prossima generazione di sistemi di IA entro i prossimi cinque anni.
Intelligenza artificiale open source vs. intelligenza artificiale closed source
È emerso anche un dibattito tra approcci open source e closed source alla ricerca sull'IA. I sostenitori dell'open source sostengono che il predominio delle aziende orientate al profitto nella ricerca sull'IA potrebbe portare a risultati indesiderati e che i modelli open source potrebbero accelerare la ricerca sulla sicurezza. Al contrario, i sostenitori dei modelli closed source sostengono che i rischi associati all'IA avanzata sono troppo elevati per consentire la libera distribuzione del codice sorgente di modelli potenti.
Bilanciare i rischi e i benefici economici dell’intelligenza artificiale
I governi, incluso il Regno Unito, si trovano a dover trovare un delicato equilibrio, riconoscendo l'importanza di affrontare i rischi dell'IA senza rinunciare alle sue opportunità commerciali. L'IA è destinata a diventare una tecnologia di uso generale, con applicazioni di vasta portata paragonabili a innovazioni passate come l'energia a vapore, l'elettricità e Internet. Si prevede che questa tecnologia determinerà significativi miglioramenti nella produttività e nella crescita economica.
Neil Shearing di Capital Economics sottolinea la necessità di approfondire le modalità con cui i governi intendono sfruttare i potenziali vantaggi economici dell'IA. Sebbene affrontare i rischi dell'IA sia fondamentale, non bisogna sottovalutare i benefici economici che promette.
Il vertice sull'IA di Bletchley Park ha segnato un momento cruciale nel dibattito globale sulla regolamentazione e la sicurezza dell'IA. Mentre i governi proseguono il loro percorso, devono trovare un equilibrio tra la necessità di affrontare le potenziali minacce dell'IA e lo sfruttamento delle sue immense opportunità economiche.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















