FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

Google, OpenAI e altri 13 si impegnano a non implementare modelli di intelligenza artificiale rischiosi

In questo post:

  • OpenAI, Microsoft, Google e altre 13 società di intelligenza artificiale hanno accettato un nuovo impegno per la sicurezza dell'IA da parte delle autorità britanniche. 
  • L’impegno prevede che le aziende smettano di sviluppare qualsiasi modello ritenuto estremamente rischioso.
  • Il Primo Ministro del Regno Unito afferma che è la prima volta che le aziende globali di intelligenza artificiale si impegnano a rispettare gli stessi standard di sicurezza.

Google, OpenAI e Meta hanno concordato di interrompere lo sviluppo di qualsiasi modello di intelligenza artificiale se non riusciranno a contenere i rischi. Martedì le aziende hanno sottoscritto gli “Impegni per la sicurezza dell’intelligenza artificiale” in occasione del vertice AI di Seoul ospitato dal Regno Unito e dalla Corea del Sud.

Leggi anche: Regno Unito e Repubblica di Corea collaborano al vertice sull'intelligenza artificiale

È la prima volta al mondo che così tante aziende leader nel settore dell’intelligenza artificiale provenienti da così tante parti del mondo accettino tutte gli stessi impegni sulla sicurezza dell’intelligenza artificiale. 

- Il primo ministro del Regno Unito, Rishi Sunak

16 aziende produttrici di intelligenza artificiale accettano impegni in materia di sicurezza dell’IA

Secondo il rapporto , un totale di 16 aziende di intelligenza artificiale hanno aderito all’impegno in materia di sicurezza, tra Stati Uniti, Cina e Medio Oriente.

Tra le aziende che hanno aderito agli standard di sicurezza figurano anche Microsoft, Amazon, Anthropic, Samsungtrone lo sviluppatore cinese Zhipu.ai. 

Leggi anche: Alibaba e Tencent investono 342 milioni di dollari nella startup AI Zhipu

L’impegno per la sicurezza dell’intelligenza artificiale richiede che tutte le aziende pubblichino il rispettivo quadro di sicurezza prima di un altro AI Action Summit che si terrà in Francia all’inizio del 2025. Il quadro spiegherà come le aziende determinano i rischi dei loro modelli e quali rischi sono “ritenuti intollerabili”.

Le aziende di intelligenza artificiale staccheranno la spina dai modelli di intelligenza artificiale rischiosi

Nei casi più estremi, secondo il rapporto, le aziende “non svilupperanno né implementeranno affatto un modello o un sistema” se i rischi non possono essere contenuti. 

Il vero potenziale dell’intelligenza artificiale verrà liberato solo se saremo in grado di gestirne i rischi. Spetta a tutti noi garantire che l’intelligenza artificiale venga sviluppata in modo sicuro.  

— Michelle Donelan, ministro della tecnologia del Regno Unito

Nel luglio 2023, il governo degli Stati Uniti ha compiuto uno sforzo simile per affrontare i rischi e i benefici dell’intelligenza artificiale. Ildent Joe Biden ha incontrato Google, Microsoft, Meta, OpenAI, Amazon, Anthropic e Inflection per discutere le misure di salvaguardia dell’IA che garantiscono che i loro prodotti AI siano sicuri prima di essere rilasciati.

Vedi anche  UK PM Arruola il capo Nvidia per accendere £ 187 milioni di competenze AI Drive

Il dibattito sulla sicurezza dell'intelligenza artificiale si infiamma su OpenAI

La conversazione sulla sicurezza dell’IA si è accesa negli ultimi mesi, in particolare riguardo alle AGI, che mirano a imitare l’intelligenza generale di tipo umano. 

Una delle società OpenAI è stata colta al centro di questa conversazione la scorsa settimana dopo che il co-fondatore, Ilya Sutskever, e il dirigente di alto livello, Jan Leike, si sono dimessi dalla società. Il duo era responsabile del team OpenAI Superalignment istituito per impedire che i loro modelli diventassero disonesti.  

Leggi anche: Un altro dirigente di OpenAI, Jan Leike lascia

Nel suo post, Leike ha affermato che “negli ultimi anni, la cultura e i processi della sicurezza sono passati in secondo piano rispetto ai prodotti brillanti” dell’azienda. 

Leike ha aggiunto che “OpenAI deve diventare un’azienda AGI attenta alla sicurezza” e che dobbiamo dare priorità alla preparazione nel miglior modo possibile per garantire che l’AGI avvantaggi tutta l’umanità.


Reporting criptopolitico di Ibiam Wayas

Le tue notizie crittografiche meritano l'attenzione - Chiave Difference Wire ti mette su oltre 250 siti migliori

Condividi il link:

Disclaimer. Le informazioni fornite non costituiscono consigli di trading. Cryptopolitan.com non si assume alcuna responsabilità per eventuali investimenti effettuati sulla base delle informazioni fornite in questa pagina. Raccomandiamo tron dent e/o la consultazione di un professionista qualificato prima di prendere qualsiasi decisione di investimento .

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta

La scelta dell'editore

Caricamento articoli scelti dall'editore...

- La newsletter Crypto che ti tiene avanti -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti al Cryptolitan Daily e diventa intuizioni cripto tempestive, nitide e pertinenti direttamente alla tua casella di posta.

Unisciti ora e
non perdere mai una mossa.

Entra. Ottieni i fatti.
Andare avanti.

Iscriviti a CryptoPolitan