Balaji affirme que l'IA est polythéiste et non monothéiste, ce qui signifie qu'il n'existe pas un seul système super-intelligent dominant l'univers. Il existe plutôt de nombreuses IAtron, chacune soutenue par différents acteurs.
Selon ses propres termes : « Nous observons empiriquement une IA polythéiste… plutôt qu’un modèle unique et tout-puissant. » Cela dissipe le fantasme d’une seule IAG réduisant le monde à néant. Nous avons en réalité un équilibre des pouvoirs entre de nombreuses combinaisons humain/IA, et non une force dominante.
Il explique que l'IA ne fonctionne actuellement qu'à mi-chemin entre les processus. Elle ne prend pas en charge l'intégralité des tâches, du début à la fin. Il faut toujours des humains aux deux extrémités : l'un pour orienter l'IA et l'autre pour vérifier ses résultats.
Ainsi, tous les coûts et efforts réels se sont déplacés vers les opérations périphériques : la génération de demandes et la vérification. C’est là que les entreprises investissent désormais, même si l’IA accélère le cœur du processus.
L'IA vous rend plus intelligent, mais seulement si vous l'êtes déjà
Balaji ne parle pas d'intelligence artificielle, mais d'intelligence amplifiée. L'IA n'agissant pas de manière autonome, elle n'est pas pleinement autonome, ne se fixe pas d'objectifs à long terme et ne peut vérifier ses propres résultats. « Il faut déployer beaucoup d'efforts pour la paramétrer, la vérifier et intégrer le système », explique-t-il. L'utilité de l'IA dépend donc de votre propre intelligence. De mauvaises instructions donneront de mauvais résultats.
Il affirme également que l'IA ne vous remplace pas, elle vous aide simplement à accomplir davantage de tâches. Grâce à elle, vous pouvez vous hisser au niveau acceptable en tant que concepteur d'interface utilisateur ou animateur de jeux vidéo. Mais n'espérez pas une qualité d'expert. L'IA vous permet d'atteindre un niveau moyen, mais pas l'excellence. Pour une qualité optimale, il vous faudra toujours des spécialistes.
Il y a une autre tâche qu'elle occupe : celle de sa propre version précédente. À mi-parcours, Stable Diffusion a été retirée du flux de travail. GPT-4 a pris la place de GPT-3. Comme l'explique Balaji : « L'IA ne vous vole pas votre travail, elle prend celui de l'IA précédente. » Une fois qu'une entreprise intègre l'IA dans un flux de travail, comme la création d'images ou la génération de code, cet espace reste occupé. Il est simplement transféré au modèle plus récent et plus performant.
Il affirme également que l'IA est plus performante avec les images qu'avec le texte. Il est plus facile pour un humain d'évaluer une image que de vérifier un bloc de code ou des paragraphes de texte. « Les interfaces utilisateur et les images sont facilement vérifiables à l'œil nu », explique Balaji. Avec le texte, la vérification est plus lente et plus coûteuse.
Les cryptomonnaies limitent ce que l'IA peut et ne peut pas faire
Balaji établit une distinction entre le fonctionnement de l'IA et celui de la cryptographie . L'IA est probabiliste ; elle raisonne à partir de modèles. La cryptographie, quant à elle, est déterministe ; elle repose sur des calculs mathématiques rigoureux et vérifiables. La cryptographie constitue donc une frontière que l'IA peine à franchir.
L'IA peut déchiffrer les captchas, mais elle ne peut pas falsifier le solde d'une blockchain. « L'IA rend tout illusoire, mais la cryptographie lui redonne sa réalité », explique-t-il. L'IA peut résoudre des équations simples, mais les équations cryptographiques restent un obstacle.
Il existe déjà une forme d'IA tueuse : les drones. « Tous les pays s'y intéressent », affirme Balaji. Ce ne sont ni les générateurs d'images ni les chatbots qui représentent la menace, mais les armes autonomes. C'est dans ce domaine que l'impact concret de l'IA est déjà mortel.
Il soutient que l'IA se décentralise au lieu de se centraliser. Aujourd'hui, on compte une multitude d'entreprises spécialisées en IA, et non plus un ou deux géants. De petites équipes, dotées d'outils performants, peuvent accomplir de grandes choses. De plus, les modèles open source progressent rapidement. Ainsi, même sans budgets colossaux, de petits groupes peuvent concevoir des systèmes d'IAtron. Cela contribue à répartir le pouvoir au lieu de le concentrer.
Balaji réfute également l'idée que plus d'IA est toujours synonyme de meilleure performance. Selon lui, le niveau idéal n'est ni zéro, ni 100 %. « L'IA à 0 % est lente, mais l'IA à 100 % est inefficace. » La véritable valeur réside entre les deux. Un niveau d'IA insuffisant vous pénalise. Un niveau excessif, en revanche, nuit à la qualité. Il compare cela à la courbe de Laffer, un concept économique qui stipule qu'il existe un juste milieu entre les extrêmes.
Dans son argument , il explique pourquoi les systèmes actuels sont des IA limitées, et non des machines omnipotentes. Il distingue quatre types de limites :
- Sur le plan économique : chaque appel d’API a un coût. Le déploiement de l’IA à grande échelle n’est pas gratuit.
- matic: L'IA ne peut pas résoudre les problèmes chaotiques ou cryptographiques.
- En pratique : l’intervention humaine reste indispensable pour recueillir et vérifier les résultats. L’IA ne peut pas accomplir la tâche entièrement seule.
- Sur le plan physique : l’IA ne collecte pas de données du monde réel par elle-même. Elle ne peut ni percevoir son environnement ni l’interpréter comme le font les humains.
Il conclut en indiquant que ces limites pourraient être levées ultérieurement. Il est possible que de futurs chercheurs parviennent à fusionner la pensée de type 1 (rapide et intuitive, comme l'IA) avec celle de type 2, plus logique et rigoureuse, à l'instar de l'informatique traditionnelle. Mais pour l'instant, il ne s'agit que d'une théorie. Le problème reste ouvert. L'IA omnisciente n'existe pas. Il n'existe que des outils (coûteux, limités et concurrentiels) qui exécutent les instructions reçues et nécessitent une vérification constante.

