Ilya Sutskever, figura di spicco nel mondo dell'intelligenza artificiale, è recentemente balzato agli onori della cronaca per il suo approccio cauto nei confronti dello sviluppo dell'intelligenza artificiale, in particolare in contrasto con la posizione di propensione al rischio di Sam Altman, CEO di OpenAI .
Questa dicotomia di opinioni ha innescato un significativo rimpasto nella leadership dell'organizzazione. In questo articolo, approfondiamo il background, la carriera e i fattori che alimentano il suo scetticismo nei confronti dell'intelligenza artificiale di Ilya Sutskever.
Nato nella Russia sovietica nel 1986 e cresciuto a Gerusalemme dall'età di 5 anni, il percorso accademico di Ilya Sutskever lo ha portato all'Università di Toronto, dove ha conseguito una laurea triennale inmaticnel 2005, seguita da una laurea magistrale in informatica nel 2007.
Ha continuato a ricercare la conoscenza e ha conseguito un dottorato di ricerca in informatica nel 2013. I primi lavori di Sutskever all'Università di Toronto sono stati caratterizzati da un software sperimentale che generava voci senza senso simili a quelle di Wikipedia.
La carriera di Sutskever ha avuto una svolta significativa nel 2012, quando è stato coautore di un articolo rivoluzionario con Alex Krizhevsky e Geoffrey Hinton, il suo supervisore di dottorato, spesso definito il "padrino dell'intelligenza artificiale". Questa collaborazione ha portato alla creazione di AlexNet, un algoritmo di deep learning che ha dimostrato capacità di riconoscimento di pattern senzadent. Questo progetto, denominato AlexNet, ha messo in luce l'immenso potenziale del deep learning nella risoluzione di problemi di riconoscimento di pattern.
Transizione a Google e contributi
Colpito dal loro lavoro pionieristico, Google reclutò rapidamente Sutskever e i suoi colleghi ricercatori. In Google, Sutskever continuò a spingere i confini dell'intelligenza artificiale. Estese le capacità di riconoscimento di pattern di AlexNet dalle immagini alle parole e alle frasi, dimostrando la versatilità di questa tecnologia. Inoltre, svolse un ruolo fondamentale nello sviluppo di TensorFlow, una piattaforma open source avanzata per l'apprendimento automatico.
In meno di tre anni in Google, Ilya Sutskever è stato convinto da Elon Musk, CEO di Tesla, a co-fondare e ricoprire il ruolo di Chief Scientist di OpenAI, un'azienda di intelligenza artificiale senza scopo di lucro. Musk, co-fondatore di OpenAI, condivideva le preoccupazioni di Sutskever sui potenziali pericoli dell'intelligenza artificiale. L'abbandono di Musk da OpenAI nel 2018, citando un conflitto di interessi con Tesla, ha lasciato Sutskever al timone dell'organizzazione.
Crescente cautela sulla sicurezza dell'intelligenza artificiale
Durante il suo mandato in OpenAI, Sutskever si è concentrato sempre di più sulla sicurezza dell'IA. Ha sostenuto l'allocazione di maggiori risorse all'interno dell'azienda per affrontare i rischi associati ai sistemi di IA. In particolare, ha guidato il team Superalignment di OpenAI, che ha dedicato il 20% della potenza di calcolo alla gestione dei rischi legati all'IA.
Il conflitto tra l'approccio cauto di Sutskever e il desiderio di Sam Altman di un rapido sviluppo dell'intelligenza artificiale raggiunse il culmine all'interno della leadership di OpenAI. Sutskever e i membri del consiglio di amministrazione che condividevano le sue idee orchestrarono la rimozione di Altman, sostituendolo temporaneamente con Emmett Shear, che condivideva una posizione più cauta. Tuttavia, questa decisione ebbe vita breve, poiché Sutskever in seguito espresse rammarico per il suo ruolo negli eventi, portando alla reintegrazione di Altman come CEO.
Lo scetticismo di Ilya Sutskever sulla sicurezza dell'IA è profondamente radicato nella sua convinzione dei potenziali pericoli di uno sviluppo incontrollato dell'IA. Ha espresso preoccupazione per la rapida implementazione di potenti modelli di IA, come ChatGPT, e per la necessità di solide misure di sicurezza.
L'impegno di Sutskever nel garantire uno sviluppo responsabile dell'IA èdent nelle sue dichiarazioni ai dipendenti di OpenAI, in cui ha sottolineato l'importanza di percepire l'impatto dell'AGI (Intelligenza Artificiale Generale) nella vita quotidiana.
Ottimismo e cinismo equilibrati
Le opinioni di Sutskever sull'IA sono caratterizzate da un equilibrio unico tra ottimismo e cinismo. Concepisce l'IA come una soluzione a molti degli attuali problemi dell'umanità, tra cui disoccupazione, malattie e povertà. Tuttavia, ne riconosce i potenziali svantaggi, mettendo in guardia da problemi come la proliferazione di fake news, attacchi informatici estremi e lo sviluppo di armi di IA completamente automatizzate. Le sue preoccupazioni si estendono alla governance dell'IA, sottolineando l'importanza di una programmazione corretta per prevenire esiti indesiderati.
A differenza di alcune visioni estreme all'interno della comunità dell'IA che prevedono scenari catastrofici, Sutskever ha una prospettiva più moderata. Paragona il rapporto tra esseri umani e IA al modo in cui gli esseri umani interagiscono con gli animali. Sebbene gli esseri umani nutrano affetto per gli animali, non chiedono loro il permesso quando costruiscono infrastrutture come le autostrade. Allo stesso modo, Sutskever suggerisce che gli esseri umani potrebbero dare priorità ai propri bisogni quando si tratta di IA.

