Eric Schmidt, amministratore delegato di Google dal 2001 al 2011, ha lanciato l'allarme durante una chiacchierata informale al Sifted Summit, affermando che i modelli di intelligenza artificiale non solo stanno diventando troppo potenti, ma anche pericolosamente facili da hackerare, paragonando i rischi alle armi nucleari e affermando che l'intelligenza artificiale potrebbe essere addirittura più distruttiva di quella che ha distrutto Hiroshima e Nagasaki.
Alla domanda diretta se l'intelligenza artificiale potesse essere più dannosa delle armi nucleari, Eric ha risposto: "Esiste la possibilità di un problema di proliferazione nell'intelligenza artificiale? Assolutamente sì". Ha spiegato che i rischi di proliferazione derivano dalla capacità di malintenzionati di prendere il controllo dei modelli e di riutilizzarli.
"Ci sono prove che dimostrano che è possibile prendere modelli, chiusi o aperti, e hackerarli per rimuovere le loro barriere di protezione. Quindi, durante l'addestramento, imparano molte cose. Un cattivo esempio sarebbe imparare come uccidere qualcuno", ha detto Eric.
Gli hacker prendono di mira l'intelligenza artificiale con nuovi metodi
Eric ha sottolineato che le aziende hanno imposto restrizioni che impediscono ai modelli di fornire istruzioni violente. "Tutte le grandi aziende rendono impossibile per quei modelli rispondere a questa domanda. Ottima decisione. Tutti lo fanno. Lo fanno bene e lo fanno per le giuste ragioni. Ci sono prove che possono essere sottoposte a reverse engineering, e ci sono molti altri esempi di questo tipo", ha aggiunto.
Ha descritto due metodi di attacco: l'iniezione rapida e il jailbreaking. L'iniezione rapida nasconde istruzioni dannose negli input dell'utente o in fonti esterne come i siti web, inducendo l'intelligenza artificiale a ignorare le linee guida di sicurezza e a esporre dati sensibili o a eseguire comandi dannosi. Il jailbreaking consiste invece nel manipolare le risposte in modo che il sistema abbandoni le sue restrizioni.
Nel 2023, pochi mesi dopo il lancio di ChatGPT, gli utenti scoprirono una tecnica di jailbreak. Crearono un alter ego chiamato DAN, abbreviazione di "Do Anything Now" (Fai qualsiasi cosa ora), che costrinsero all'obbedienza minacciandolo di "morte" in caso di rifiuto. Questa manipolazione spinse il chatbot a spiegare azioni illegali e persino a lodare Adolf Hitler. Per Eric, questi esempi dimostrano che le misure di sicurezza sono tutt'altro che infallibili. Ha inoltre sottolineato che non esiste un "regime di non proliferazione" globale per fermare l'abuso dell'IA, a differenza dei quadri normativi esistenti per le armi nucleari.
Eric afferma che l'intelligenza artificiale è poco pubblicizzata nonostante i rischi
Nonostante le sue preoccupazioni, Eric ha sostenuto che l'intelligenza artificiale non riceve ancora il riconoscimento che merita. Ha sottolineato i libri scritti insieme all'ex Segretario di Stato americano Henry Kissinger prima della sua morte. "Siamo giunti alla conclusione che l'arrivo di un'intelligenza aliena che non è esattamente come noi e che è più o meno sotto il nostro controllo è un evento molto importante per l'umanità, perché gli esseri umani sono abituati a essere al vertice della gerarchia. Credo che finora questa tesi stia dimostrando che il livello di capacità di questi sistemi supererà di gran lunga quello che gli esseri umani possono fare nel tempo", ha affermato.
"Ora la serie GPT, che è culminata in un momento ChatGPT per tutti noi, con 100 milioni di utenti in due mesi, il che è straordinario, dà un'idea della potenza di questa tecnologia. Quindi penso che sia poco pubblicizzata, non sopravvalutata, e non vedo l'ora che si dimostri corretta tra cinque o dieci anni", ha aggiunto.
Queste dichiarazioni giungono mentre si diffonde il dibattito sull'eventualità che gli investimenti nell'IA stiano gonfiando una bolla finanziaria simile a quella dell'era delle dot-com. Alcuni investitori temono che le valutazioni delle aziende di IA siano eccessive. Ma Eric ha respinto il paragone. "Non credo che accadrà in questo caso, ma non sono un investitore professionista", ha affermato.
Ha sottolineato che investire in modo ingente dimostra fiducia. "Quello che so è che chi investe denaro guadagnato con fatica crede che il ritorno economico a lungo termine sia enorme. Altrimenti, perché mai dovrebbero correre questo rischio?", si chiede Eric.

