ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Il responsabile dell'intelligenza artificiale di Meta afferma che è troppo presto per preoccuparsi dell'AGI

DiIbiam WayasIbiam Wayas
Tempo di lettura: 2 minuti.
Il responsabile dell'intelligenza artificiale di Meta afferma che è troppo presto per preoccuparsi dell'AGI
  • Il responsabile dell'intelligenza artificiale di Meta ritiene che sia troppo presto per preoccuparsi del rischio esistenziale dell'intelligenza artificiale.
  • LeCun ha affermato che i sistemi di intelligenza artificiale non possono diventare pericolosi spontaneamente.
  • Meta e OpenAI hanno entrambe rivelato l'intenzione di creare AGI.

Il responsabile dell'intelligenza artificiale di Meta, Yann LeCun, ha affermato che è presto per iniziare a preoccuparsi dei sistemi di intelligenza artificiale (IA) di livello umano, comunemente noti come AGI. Il commento di LeCun arriva mentre i dibattiti sull'impatto dell'AGI sull'esistenza dell'umanità continuano a prendere piede. 

Leggi anche: Uno sguardo più da vicino alle speculazioni sull'AGI

"Al momento non abbiamo nemmeno un'idea di come potrebbe essere un sistema intelligente di livello umano", ha scritto LeCun su X lunedì. "Quindi è troppo presto per preoccuparsene. Ed è decisamente troppo presto per regolamentarlo al fine di prevenire un 'rischio esistenziale'".

L'intelligenza artificiale non può semplicemente diventare pericolosa, afferma LeCun

Molti esperti ritengono che l'intelligenza artificiale globale (AGI) sia lontana decenni o addirittura secoli dal diventare realtà. Tuttavia, è motivo di preoccupazione tra i governi, poiché gli esperti avvertono che tali modelli potrebbero minacciare l'esistenza dell'umanità. 

Leggi anche: Google, OpenAI e altre 13 aziende si impegnano a non implementare modelli di intelligenza artificiale rischiosi

LeCun ritiene che i sistemi di intelligenza artificiale non siano "una sorta di fenomeno naturale che emergerà e diventerà pericoloso all'improvviso". Ha affermato che gli esseri umani hanno il potere di rendere l'intelligenza artificiale sicura perché siamo noi a crearla. 

"Posso immaginare migliaia di scenari in cui un turbogetto può andare malissimo. Eppure siamo riusciti a rendere i turbogetti incredibilmente affidabili prima di diffonderli su larga scala", ha aggiunto LeCun. "La questione è simile per l'intelligenza artificiale"

Il capo dell'intelligenza artificiale di Meta afferma che gli LLM non possono raggiungere l'intelligenza umana

La scorsa settimana, LeCun ha anche espresso l'opinione che i grandi modelli linguistici, che alimentano i popolari chatbot AI come ChatGPT, Gemini, ecc., non possono raggiungere l'intelligenza umana. 

Leggi anche: ChatGPT-4o di OpenAI è in grado di mostrare sentimenti ed emozioni

In un'intervista a Forbes, LeCun ha affermato che i modelli lineari logici (LLM) hanno una "comprensione limitata della logica", dato che devono essere addestrati e possono funzionare solo nella misura in cui i dati vengono loro forniti sono adeguati. Ha inoltre osservato che i modelli lineari logici logici sono "intrinsecamente insicuri" e che i ricercatori che intendono costruire sistemi di intelligenza artificiale di livello umano dovrebbero prendere in considerazione altri tipi di modelli.

OpenAI e Meta confermano l'interesse per la realizzazione dell'AGI

OpenAI, il creatore di ChatGPT, ha in programma di creare modelli così potenti. A maggio, il co-fondatore Sam Altman ha dichiarato che avrebbero realizzato l'AGI a qualsiasi costo.

"Che bruciamo 500 milioni di dollari all'anno, 5 miliardi di dollari o 50 miliardi di dollari all'anno, non mi interessa, davvero. Finché riusciremo a trovare un modo per pagare i conti, continueremo a creare AGI. Sarà costoso."

Sam Altman

Meta ha inoltre iniziato a impegnarsi per raggiungere un'intelligenza pari a quella umana. A gennaio, Mark Zuckerberg ha ammesso che la visione a lungo termine di Meta è quella di "costruire un'intelligenza generale, renderla open source in modo responsabile e ampiamente disponibile affinché tutti possano beneficiarne".


 Reportage Cryptopolitan di Ibiam Wayas

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO