ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

I giganti della tecnologia della Silicon Valley mettono da parte la sicurezza dell'intelligenza artificiale per i guadagni dei prodotti

DiCollins J. OkothCollins J. Okoth
Tempo di lettura: 3 minuti.
  • Le aziende tecnologiche che si occupano di intelligenza artificiale danno priorità ai prodotti rispetto alla ricerca, ma gli esperti del settore sono preoccupati per la sicurezza.
  • James White, CTO di Calypso, ha affermato che i modelli di intelligenza artificiale stanno migliorando, ma è probabile che presentino anche un lato negativo.
  • Jan Leike, ex dipendente di OpenAI, afferma che la cultura e i processi di sicurezza dell'azienda sono passati in secondo piano rispetto ai "accattivanti" .

La Silicon Valley era il luogo in cui i maggiori esperti mondiali di intelligenza artificiale si recavano per condurre ricerche innovative, ma gli esperti avvertono che le cose sono cambiate e ora l'IA è incentrata esclusivamente sul prodotto. I ricercatori e gli esperti di IA ritengono inoltre che, da quando OpenAI ha rilasciato ChatGPT alla fine del 2022, l'industria tecnologica abbia dato priorità alla commercializzazione rispetto alla ricerca, sviluppando prodotti di IA pronti per il consumatore.

Gli analisti di Morgan Stanley hanno previsto che il settore dell'intelligenza artificiale (IA) ha il potenziale per raggiungere un fatturato annuo di 1.000 miliardi di dollari entro il 2028. Gli esperti del settore hanno espresso preoccupazione per la sicurezza, dato che i principali attori del settore stanno puntando sull'intelligenza artificiale generale (AGI).

La ricerca sull'intelligenza artificiale torna a generare profitti mentre la Silicon Valley dà priorità ai prodotti rispetto alla sicurezza

OpenAI, fondata come laboratorio di ricerca senza scopo di lucro nel 2015, è attualmente impegnata in un processo di trasformazione in un'entità a scopo di lucro, secondo quanto affermato dal suo CEO, Sam Altman. Jan Leike, ex responsabile dell'allineamento di OpenAI, il cui team si occupava di sicurezza dell'IA, si è dimessa lo scorso anno dichiarando che negli ultimi anni "la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti più accattivanti".

James White, direttore tecnico della startup di sicurezza informatica Calypso, ha sostenuto che le aziende tecnologiche stanno adottando sempre più scorciatoie quando si tratta di testare rigorosamente i propri modelli di intelligenza artificiale prima di renderli pubblici. Ha osservato che i modelli di intelligenza artificiale più recenti stanno sacrificando la sicurezza in favore della qualità, ovvero di risposte migliori da parte dei chatbot. 

"I modelli stanno migliorando, ma è anche più probabile che siano bravi a fare cose sbagliate. È più facile ingannarli per fargli fare cose sbagliate."

– James White, Direttore tecnico di Calypso.

A marzo, Google sembrava aver dato priorità al suo prodotto rispetto alla sicurezza dopo aver rilasciato il suo ultimo modello di intelligenza artificiale, Gemini 2.5, affermando che si trattava del modello di IA più intelligente mai realizzato dall'azienda. Google non ha pubblicato la scheda tecnica di Gemini 2.5 per settimane, ovvero non ha condiviso informazioni sul funzionamento del modello di IA, sui suoi limiti e sui potenziali pericoli al momento del suo rilascio.

l'azienda ha ammesso di valutare i suoi modelli più avanzati per individuare eventuali capacità pericolose prima del loro rilascio. Google ha poi aggiornato il post sul blog omettendo le parole "prima del loro rilascio".

L'azienda ha pubblicato una scheda modello incompleta il 16 aprile e l'ha aggiornata il 28 aprile, più di un mese dopo il rilascio del modello AI, per includere informazioni sulle valutazioni delle capacità pericolose di Gemini2.5.

Le aziende tecnologiche di intelligenza artificiale passano dalla ricerca ai prodotti che generano entrate

Ex dipendenti di Meta hanno affermato di non essere rimasti sorpresi quando Joelle Pineau, vicepresidente di Metadent responsabile della divisione FAIR dell'azienda, ha annunciato il mese scorso che avrebbe lasciato il suo incarico il 30 maggio. Hanno affermato di aver interpretato la decisione come un ulteriore passo avanti nella strategia aziendale di allontanarsi dalla ricerca sull'intelligenza artificiale per concentrarsi sullo sviluppo di prodotti pratici.

Pineau guida FAIR dal 2023 e, secondo i dipendenti di Meta, piccoli team di ricerca potrebbero lavorare su diverse tecnologie all'avanguardia che potrebbero dare i loro frutti o meno. Il cambiamento è iniziato quando l'azienda tecnologica ha licenziato 21.000 dipendenti, ovvero quasi un quarto della sua forza lavoro, alla fine del 2022. Ex dipendenti a conoscenza della questione hanno affermato che i ricercatori di FAIR sono stati invitati a collaborare più strettamente con i team di prodotto nell'ambito delle misure di riduzione dei costi.

Due fonti vicine alla questione hanno affermato che all'inizio di quest'anno, uno dei direttori di FAIR, Kim Hazelwood, ha lasciato l'azienda nell'ambito del piano di Meta di ridurre del 5% la forza lavoro. Le fonti hanno sottolineato che il lancio di ChatGPT da parte di OpenAI ha creato in Meta un senso di urgenza nel dover investire maggiori risorse nei modelli linguistici di grandi dimensioni (LLM).

I due hanno anche rivelato che Chris Cox, Chief Product Officer di Meta, ha supervisionato FAIR per colmare il divario tra la ricerca e il gruppo GenAI, focalizzato sui prodotti. Hanno aggiunto che GenAI, sotto la guida di Cox, ha sottratto più risorse informatiche e membri del team a FAIR, a causa del suo prestigio all'interno dell'azienda. 

Il mese scorso, Meta ha rilasciato strumenti di sicurezza per gli sviluppatori, utili per creare app con i modelli di intelligenza artificiale Llama 4 dell'azienda. Meta ha affermato che questi strumenti contribuiscono a ridurre il rischio che Llama 4 divulghi involontariamente informazioni sensibili o produca contenuti dannosi.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO