Your bank is using your money. You’re getting the scraps.WATCH FREE

Google, OpenAI e altre 13 aziende si impegnano a non implementare modelli di intelligenza artificiale rischiosi

In questo post:

  • OpenAI, Microsoft, Google e altre 13 aziende di intelligenza artificiale hanno sottoscritto un nuovo impegno in materia di sicurezza dell'intelligenza artificiale da parte delle autorità del Regno Unito. 
  • L'impegno prevede che le aziende smettano di sviluppare qualsiasi modello ritenuto estremamente rischioso.
  • Il Primo Ministro del Regno Unito afferma che è la prima volta che le aziende globali di intelligenza artificiale si impegnano a rispettare gli stessi standard di sicurezza.

Google, OpenAI e Meta hanno concordato di interrompere lo sviluppo di qualsiasi modello di intelligenza artificiale se non riusciranno a contenere i rischi. Le aziende hanno sottoscritto gli "Impegni per la sicurezza dell'intelligenza artificiale" martedì, in occasione dell'AI Seoul Summit, ospitato da Regno Unito e Corea del Sud.

Leggi anche: Regno Unito e Repubblica di Corea collaborano al vertice sull'intelligenza artificiale

È la prima volta al mondo che così tante aziende leader nel campo dell'intelligenza artificiale, provenienti da così tante parti del mondo, concordano sugli stessi impegni in materia di sicurezza dell'intelligenza artificiale. 

- Il primo ministro del Regno Unito, Rishi Sunak

16 aziende di intelligenza artificiale accettano impegni sulla sicurezza dell'intelligenza artificiale

Secondo il rapporto , un totale di 16 aziende di intelligenza artificiale hanno aderito all'impegno sulla sicurezza, provenienti da Stati Uniti, Cina e Medio Oriente.

Tra le aziende che aderiscono agli standard di sicurezza ci sono anche Microsoft, Amazon, Anthropic, Samsungtrone lo sviluppatore cinese Zhipu.ai. 

Leggi anche: Alibaba e Tencent investono 342 milioni di dollari nella startup di intelligenza artificiale Zhipu

L'impegno per la sicurezza dell'IA richiede a tutte le aziende di pubblicare il proprio quadro di riferimento sulla sicurezza prima di un altro AI Action Summit in Francia all'inizio del 2025. Il quadro spiegherà come le aziende determinano i rischi dei loro modelli e quali rischi sono "considerati intollerabili"

Le aziende di intelligenza artificiale abbandoneranno i modelli di intelligenza artificiale rischiosi

Nei casi più estremi, secondo il rapporto, le aziende “non svilupperanno né implementeranno affatto un modello o un sistema” se i rischi non possono essere contenuti. 

Il vero potenziale dell'IA si sprigionerà solo se saremo in grado di comprenderne i rischi. Sta a tutti noi garantire che l'IA venga sviluppata in modo sicuro. 

— Michelle Donelan, Segretario alla Tecnologia del Regno Unito

Nel luglio 2023, il governo degli Stati Uniti ha compiuto uno sforzo simile per affrontare i rischi e i benefici dell'intelligenza artificiale. Ildent Joe Biden ha incontrato Google, Microsoft, Meta, OpenAI, Amazon, Anthropic e Inflection per discutere le misure di sicurezza che garantiscono la sicurezza dei loro prodotti di intelligenza artificiale prima del loro rilascio.

Vedi anche  L'impatto dell'intelligenza artificiale sulle economie dei BRICS: opportunità e sfide

Il dibattito sulla sicurezza dell'intelligenza artificiale si infiamma su OpenAI

Negli ultimi mesi il dibattito sulla sicurezza dell'intelligenza artificiale si è fatto più acceso, in particolare per quanto riguarda le IA, che mirano a imitare l'intelligenza generale simile a quella umana. 

Una delle aziende, OpenAI, è stata al centro di questa conversazione la scorsa settimana, dopo che il co-fondatore, Ilya Sutskever, e il dirigente di alto livello, Jan Leike, si sono dimessi dall'azienda. I due erano a capo del team OpenAI Superalignment, creato per impedire che i loro modelli diventassero inaffidabili. 

Leggi anche: Un altro dirigente di OpenAI, Jan Leike, si dimette

Nel suo post, Leike ha affermato che "negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti brillanti" in azienda. 

Leike ha aggiunto che "OpenAI deve diventare un'azienda AGI che mette al primo posto la sicurezza" e che dobbiamo dare priorità alla preparazione nel miglior modo possibile per garantire che l'AGI sia vantaggiosa per tutta l'umanità.


Reportage Cryptopolitan di Ibiam Wayas

Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan