Google, OpenAI e Meta hanno concordato di interrompere lo sviluppo di qualsiasi modello di intelligenza artificiale se non riusciranno a contenere i rischi. Martedì le aziende hanno sottoscritto gli “Impegni per la sicurezza dell’intelligenza artificiale” in occasione del vertice AI di Seoul ospitato dal Regno Unito e dalla Corea del Sud.
Leggi anche: Regno Unito e Repubblica di Corea collaborano al vertice sull'intelligenza artificiale
È la prima volta al mondo che così tante aziende leader nel settore dell’intelligenza artificiale provenienti da così tante parti del mondo accettino tutte gli stessi impegni sulla sicurezza dell’intelligenza artificiale.
- Il primo ministro del Regno Unito, Rishi Sunak
16 aziende produttrici di intelligenza artificiale accettano impegni in materia di sicurezza dell’IA
Secondo il rapporto , un totale di 16 aziende di intelligenza artificiale hanno aderito all’impegno in materia di sicurezza, tra Stati Uniti, Cina e Medio Oriente.
Tra le aziende che hanno aderito agli standard di sicurezza figurano anche Microsoft, Amazon, Anthropic, Samsungtrone lo sviluppatore cinese Zhipu.ai.
Leggi anche: Alibaba e Tencent investono 342 milioni di dollari nella startup AI Zhipu
L’impegno per la sicurezza dell’intelligenza artificiale richiede che tutte le aziende pubblichino il rispettivo quadro di sicurezza prima di un altro AI Action Summit che si terrà in Francia all’inizio del 2025. Il quadro spiegherà come le aziende determinano i rischi dei loro modelli e quali rischi sono “ritenuti intollerabili”.
Le aziende di intelligenza artificiale staccheranno la spina dai modelli di intelligenza artificiale rischiosi
Nei casi più estremi, secondo il rapporto, le aziende “non svilupperanno né implementeranno affatto un modello o un sistema” se i rischi non possono essere contenuti.
Il vero potenziale dell’intelligenza artificiale verrà liberato solo se saremo in grado di gestirne i rischi. Spetta a tutti noi garantire che l’intelligenza artificiale venga sviluppata in modo sicuro.
— Michelle Donelan, ministro della tecnologia del Regno Unito
Nel luglio 2023, il governo degli Stati Uniti ha compiuto uno sforzo simile per affrontare i rischi e i benefici dell’intelligenza artificiale. Ildent Joe Biden ha incontrato Google, Microsoft, Meta, OpenAI, Amazon, Anthropic e Inflection per discutere le misure di salvaguardia dell’IA che garantiscono che i loro prodotti AI siano sicuri prima di essere rilasciati.
Il dibattito sulla sicurezza dell'intelligenza artificiale si infiamma su OpenAI
La conversazione sulla sicurezza dell’IA si è accesa negli ultimi mesi, in particolare riguardo alle AGI, che mirano a imitare l’intelligenza generale di tipo umano.
Una delle società OpenAI è stata colta al centro di questa conversazione la scorsa settimana dopo che il co-fondatore, Ilya Sutskever, e il dirigente di alto livello, Jan Leike, si sono dimessi dalla società. Il duo era responsabile del team OpenAI Superalignment istituito per impedire che i loro modelli diventassero disonesti.
Leggi anche: Un altro dirigente di OpenAI, Jan Leike lascia
Nel suo post, Leike ha affermato che “negli ultimi anni, la cultura e i processi della sicurezza sono passati in secondo piano rispetto ai prodotti brillanti” dell’azienda.
Attendiamo da tempo di prendere incredibilmente sul serio le implicazioni dell’AGI.
— Jan Leike (@janleike) 17 maggio 2024
Dobbiamo dare priorità alla preparazione per affrontarli nel miglior modo possibile.
Solo allora potremo garantire che l’AGI porti benefici a tutta l’umanità.
Leike ha aggiunto che “OpenAI deve diventare un’azienda AGI attenta alla sicurezza” e che dobbiamo dare priorità alla preparazione nel miglior modo possibile per garantire che l’AGI avvantaggi tutta l’umanità.
Reporting criptopolitico di Ibiam Wayas
Le tue notizie crittografiche meritano l'attenzione - Chiave Difference Wire ti mette su oltre 250 siti migliori