Google, OpenAI e Meta hanno concordato di interrompere lo sviluppo di qualsiasi modello di intelligenza artificiale se non riusciranno a contenere i rischi. Le aziende hanno sottoscritto gli "Impegni per la sicurezza dell'intelligenza artificiale" martedì, in occasione dell'AI Seoul Summit, ospitato da Regno Unito e Corea del Sud.
Leggi anche: Regno Unito e Repubblica di Corea collaborano al vertice sull'intelligenza artificiale
È la prima volta al mondo che così tante aziende leader nel campo dell'intelligenza artificiale, provenienti da così tante parti del mondo, concordano sugli stessi impegni in materia di sicurezza dell'intelligenza artificiale.
- Il primo ministro del Regno Unito, Rishi Sunak
16 aziende di intelligenza artificiale accettano impegni sulla sicurezza dell'intelligenza artificiale
Secondo il rapporto , un totale di 16 aziende di intelligenza artificiale hanno aderito all'impegno sulla sicurezza, provenienti da Stati Uniti, Cina e Medio Oriente.
Tra le aziende che aderiscono agli standard di sicurezza ci sono anche Microsoft, Amazon, Anthropic, Samsungtrone lo sviluppatore cinese Zhipu.ai.
L'impegno per la sicurezza dell'IA richiede a tutte le aziende di pubblicare il proprio quadro di riferimento sulla sicurezza prima di un altro AI Action Summit in Francia all'inizio del 2025. Il quadro spiegherà come le aziende determinano i rischi dei loro modelli e quali rischi sono "considerati intollerabili"
Le aziende di intelligenza artificiale abbandoneranno i modelli di intelligenza artificiale rischiosi
Nei casi più estremi, secondo il rapporto, le aziende “non svilupperanno né implementeranno affatto un modello o un sistema” se i rischi non possono essere contenuti.
Il vero potenziale dell'IA si sprigionerà solo se saremo in grado di comprenderne i rischi. Sta a tutti noi garantire che l'IA venga sviluppata in modo sicuro.
— Michelle Donelan, Segretario alla Tecnologia del Regno Unito
Nel luglio 2023, il governo degli Stati Uniti ha compiuto uno sforzo simile per affrontare i rischi e i benefici dell'intelligenza artificiale. Ildent Joe Biden ha incontrato Google, Microsoft, Meta, OpenAI, Amazon, Anthropic e Inflection per discutere le misure di sicurezza che garantiscono la sicurezza dei loro prodotti di intelligenza artificiale prima del loro rilascio.
Il dibattito sulla sicurezza dell'intelligenza artificiale si infiamma su OpenAI
Negli ultimi mesi il dibattito sulla sicurezza dell'intelligenza artificiale si è fatto più acceso, in particolare per quanto riguarda le IA, che mirano a imitare l'intelligenza generale simile a quella umana.
Una delle aziende, OpenAI, è stata al centro di questa conversazione la scorsa settimana, dopo che il co-fondatore, Ilya Sutskever, e il dirigente di alto livello, Jan Leike, si sono dimessi dall'azienda. I due erano a capo del team OpenAI Superalignment, creato per impedire che i loro modelli diventassero inaffidabili.
Leggi anche: Un altro dirigente di OpenAI, Jan Leike, si dimette
Nel suo post, Leike ha affermato che "negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti brillanti" in azienda.
È da tempo che dovremmo prendere seriamente in considerazione le implicazioni dell'AGI.
— Jan Leike (@janleike) 17 maggio 2024
Dobbiamo dare priorità alla preparazione nel miglior modo possibile.
Solo allora potremo garantire che l'AGI apporti benefici a tutta l'umanità.
Leike ha aggiunto che "OpenAI deve diventare un'azienda AGI che mette al primo posto la sicurezza" e che dobbiamo dare priorità alla preparazione nel miglior modo possibile per garantire che l'AGI sia vantaggiosa per tutta l'umanità.
Reportage Cryptopolitan di Ibiam Wayas

