Balaji afirma que a IA é politeísta, não monoteísta, o que significa que não existe um único sistema superinteligente que domine tudo. Em vez disso, existem várias IAstron, cada uma apoiada por diferentes atores.
Em suas palavras: “Observamos empiricamente uma IA politeísta… em vez de um único modelo todo-poderoso”. Isso elimina a fantasia de uma IAG (Inteligência Artificial Geral) transformando o mundo em um mosaico de clipes de papel. O que temos é um equilíbrio de poder entre muitas combinações de humanos e IA, não uma força dominante.
Ele afirma que a IA atualmente só funciona "de meio para meio". Ela não realiza tarefas completas do início ao fim. Ainda são necessárias pessoas em ambas as pontas: uma para dar as instruções à IA e outra para verificar o resultado.
Assim, todos os custos e esforços reais foram transferidos para as etapas periféricas: solicitação e verificação. É aí que as empresas estão investindo seu dinheiro agora, mesmo que a IA acelere o processo central.
A inteligência artificial te torna mais inteligente, mas só se você já for inteligente
Balaji não chama isso de inteligência artificial. Ele chama de inteligência amplificada. Isso porque a IA não age por conta própria, não é totalmente autônoma, não define metas de longo prazo e não consegue verificar seus próprios resultados. "É preciso investir muito esforço em instruções, verificação e integração de sistemas", disse ele. Portanto, a utilidade da IA depende da sua inteligência. Se você der instruções ruins, ela dará resultados ruins.
Ele também afirma que a IA não substitui você, apenas ajuda a realizar mais tarefas. Com ela, você pode se passar por um designer de interface de usuário ou animador de jogos razoável. Mas não espere qualidade de especialista. A IA te torna bom o suficiente para ser mediano, não excelente. Para alcançar a verdadeira qualidade, você ainda precisa de especialistas.
Há ainda outra função que a IA desempenha , e essa é a função da versão anterior de si mesma. O Midjourney substituiu o Stable Diffusion no fluxo de trabalho. O GPT-4 ocupou o lugar do GPT-3. Como Balaji afirma, “a IA não rouba o seu emprego, ela rouba o emprego da IA anterior”. Uma vez que as empresas criam um espaço para a IA em um fluxo de trabalho, como criação de imagens ou geração de código, esse espaço permanece preenchido. Ele simplesmente é transferido para o modelo mais novo e melhor.
Ele também afirma que a IA é melhor com recursos visuais do que com texto. É mais fácil para os humanos avaliarem uma imagem do que verificarem um bloco de código ou parágrafos de texto. "Interfaces de usuário e imagens podem ser facilmente verificadas pelo olho humano", diz Balaji. Com texto, é mais lento e custoso para as pessoas verificarem a precisão.
A criptografia limita o que a IA pode e não pode fazer
Balaji traça uma linha divisória entre o funcionamento da IA e o funcionamento das criptomoedas . A IA é probabilística; ela faz suposições com base em padrões. Já as criptomoedas são determinísticas; elas operam com matemática complexa e comprovável. Assim, as criptomoedas se tornam uma fronteira que a IA não consegue transpor facilmente.
A IA pode quebrar captchas, mas não consegue falsificar um saldo em blockchain. "A IA torna tudo falso, mas as criptomoedas tornam tudo real novamente", afirma. A IA pode resolver equações simples, mas as equações criptográficas ainda a bloqueiam.
Já existe uma versão de IA assassina por aí: os drones. "Todos os países estão investindo nisso", diz Balaji. Não são os geradores de imagens ou os chatbots que representam a ameaça, mas sim as armas autônomas. É nessa área que o impacto real da IA já é letal.
Ele argumenta que a IA está descentralizando, e não centralizando. Atualmente, existem inúmeras empresas de IA, não apenas uma ou duas gigantes. Pequenas equipes com boas ferramentas podem fazer muito. E os modelos de código aberto estão melhorando rapidamente. Portanto, mesmo sem orçamentos enormes, pequenos grupos podem construir sistemas de IAtron. Isso fragmenta o poder em vez de concentrá-lo.
Balaji também rejeita a ideia de que mais IA é sempre melhor. Ele afirma que a quantidade ideal não é zero, nem 100%. "0% de IA é lento, mas 100% de IA é ineficiente." O verdadeiro valor reside no meio termo. Pouca IA significa estar atrasado. IA em excesso prejudica a qualidade. Ele compara isso à Curva de Laffer, um conceito da economia que afirma haver um ponto ideal entre os extremos.
Em seu argumento , ele explica por que os sistemas atuais são IAs limitadas, e não máquinas divinas. Ele divide isso em quatro tipos de limitações:
- Do ponto de vista econômico: cada chamada de API custa dinheiro. Usar IA em larga escala não é gratuito.
- matic: A IA não consegue resolver problemas caóticos ou criptográficos.
- Na prática: você ainda precisa de pessoas para orientar e verificar os resultados. A IA não consegue concluir toda a tarefa sozinha.
- Aspecto físico: A IA não coleta dados do mundo real por conta própria. Ela não consegue perceber o ambiente ao seu redor nem interpretá-lo como os humanos fazem.
Ele conclui dizendo que essas limitações podem ser removidas posteriormente. É possível que futuros pesquisadores consigam fundir o pensamento do Sistema 1 (rápido e intuitivo, como a IA) com o pensamento do Sistema 2, que é mais lógico e cuidadoso, como a computação tradicional. Mas, por enquanto, isso é apenas teoria. Ainda é um problema em aberto. Não existe IA onisciente. Existem apenas ferramentas (caras, limitadas e competitivas) que fazem o que lhes é dito e precisam de verificação constante.

