Balaji afferma che l'IA è politeista, non monoteista, il che significa che non esiste un unico sistema superintelligente che governa tutti. Al contrario, esistono molte IAtron, ciascuna supportata da attori diversi.
Nelle sue parole: "Osserviamo empiricamente un'IA politeista... piuttosto che un singolo modello onnipotente". Questo spazza via la fantasia di un'IA che trasforma il mondo in graffette. Ciò che abbiamo è un equilibrio di potere tra molte combinazioni uomo/IA, non un'unica forza dominante.
Afferma che l'IA al momento funziona solo "a metà strada". Non gestisce un lavoro completo dall'inizio alla fine. Servono ancora persone a entrambe le estremità: una per dare istruzioni all'IA e un'altra per controllare cosa produce.
Quindi tutti i costi e gli sforzi reali si sono spostati verso i margini: prompting e verifica. È lì che le aziende ora spendono i loro soldi, anche se l'intelligenza artificiale accelera il cuore del processo.
L'intelligenza artificiale ti rende più intelligente, ma solo se sei già intelligente
Balaji non la chiama intelligenza artificiale. La chiama intelligenza amplificata. Poiché l'IA non agisce da sola, non è completamente agentiva, non si pone obiettivi a lungo termine e non può verificare i propri risultati. "Bisogna impegnarsi molto nel sollecitare, verificare e integrare il sistema", ha affermato. Quindi, l'utilità dell'IA dipende da quanto si è intelligenti. Se le si danno istruzioni sbagliate, si ottengono risultati sbagliati.
Afferma inoltre che l'intelligenza artificiale non ti sostituisce, ti aiuta solo a svolgere più lavori. Con essa, puoi fingere di essere un discreto UI designer o un animatore di videogiochi. Ma non aspettarti una qualità da esperto. L'intelligenza artificiale ti rende abbastanza bravo da essere nella media, non eccellente. Per una vera qualità, hai comunque bisogno di specialisti.
C'è un altro compito che svolge , ed è il compito dell'ultima versione di se stessa. Midjourney ha estromesso Stable Diffusion dal flusso di lavoro. GPT-4 ha preso il posto di GPT-3. Come dice Balaji, "L'IA non prende il tuo lavoro, prende il lavoro dell'IA precedente". Una volta che le aziende creano uno spazio per l'IA in un flusso di lavoro, come la creazione di immagini o la generazione di codice, quello spazio rimane occupato. Viene semplicemente passato al modello più nuovo e migliore.
Afferma inoltre che l'intelligenza artificiale è più efficace con le immagini che con il testo. Per gli esseri umani è più facile giudicare un'immagine che verificare un muro di codice o paragrafi di testo. "Le interfacce utente e le immagini possono essere facilmente verificate dall'occhio umano", afferma Balaji. Con il testo, è più lento e costoso per le persone verificarne l'accuratezza.
Le criptovalute limitano ciò che l'intelligenza artificiale può e non può fare
Balaji traccia una linea di demarcazione tra il funzionamento dell'intelligenza artificiale e quello delle criptovalute . L'intelligenza artificiale è probabilistica; formula ipotesi basate su modelli. Ma le criptovalute sono deterministiche; si basano su calcoli matematici concreti e dimostrabili. Quindi le criptovalute diventano un confine che l'intelligenza artificiale non può facilmente oltrepassare.
L'intelligenza artificiale può decifrare i captcha, ma non può falsificare un saldo blockchain. "L'intelligenza artificiale rende tutto falso, ma le criptovalute lo rendono di nuovo reale", afferma. L'intelligenza artificiale può risolvere equazioni semplici, ma le equazioni crittografiche la bloccano comunque.
Esiste già una versione di IA letale. Sono i droni. "Ogni Paese la sta perseguendo", afferma Balaji. Non sono i generatori di immagini o i chatbot a rappresentare una minaccia, ma le armi autonome. È in questo ambito che l'impatto dell'IA nel mondo reale è già letale.
Sostiene che l'IA stia decentralizzando, non centralizzando. Al momento, ci sono tantissime aziende di IA, non solo uno o due giganti. Piccoli team con buoni strumenti possono fare molto. E i modelli open source stanno migliorando rapidamente. Quindi, anche senza budget ingenti, piccoli gruppi possono costruire sistemi di IAtron. Questo suddivide il potere invece di concentrarlo.
Balaji rifiuta anche l'idea che più IA sia sempre meglio. Sostiene che la quantità ideale non è zero, né il 100%. "Lo 0% di IA è lento, ma il 100% di IA è inutile". Il vero valore risiede nel mezzo. Troppa poca IA significa essere indietro. Troppa, e la qualità crolla. La paragona alla curva di Laffer, un concetto economico che afferma che esiste un punto ideale tra gli estremi.
Nella sua argomentazione , spiega perché i sistemi odierni sono IA limitate, non macchine divine. Suddivide questo concetto in quattro tipi di limiti:
- Economico: ogni chiamata API ha un costo. L'utilizzo dell'intelligenza artificiale su larga scala non è gratuito.
- matic: l'intelligenza artificiale non può risolvere problemi caotici o crittografici.
- Pratico: è ancora necessario l'intervento umano per sollecitare e verificare i risultati. L'intelligenza artificiale non può completare l'intero compito da sola.
- Fisico: l'intelligenza artificiale non raccoglie autonomamente dati dal mondo reale. Non è in grado di percepire l'ambiente circostante né di interpretarlo come fanno gli esseri umani.
Conclude affermando che questi limiti potrebbero essere rimossi in futuro. È possibile che i ricercatori del futuro possano fondere il pensiero del Sistema 1 (veloce e intuitivo, come l'IA) con il pensiero del Sistema 2, più logico e attento, come l'informatica tradizionale. Ma al momento, questa è solo teoria. È ancora un problema aperto. Non esiste un'IA onnisciente. Esistono solo strumenti (costosi, limitati e competitivi) che fanno ciò che viene loro detto e necessitano di un controllo costante.

