Laut Balaji ist KI polytheistisch, nicht monotheistisch, was bedeutet, dass es kein einziges superintelligentes System gibt, das über alles herrscht. Stattdessen existieren vieletronKIs, die jeweils von unterschiedlichen Akteuren unterstützt werden.
In seinen Worten: „Wir beobachten empirisch polytheistische KI … und nicht ein einziges allmächtiges Modell.“ Das widerlegt die Vorstellung einer einzigen AGI, die die Welt in Büroklammern verwandelt. Was wir haben, ist ein Machtgleichgewicht zwischen vielen Mensch-KI-Kombinationen, keine dominante Kraft.
Er sagt, KI funktioniere derzeit nur „zwischen den Ebenen“. Sie könne keine kompletten Aufgaben von Anfang bis Ende bewältigen. Man brauche weiterhin Menschen an beiden Enden: einen, der die KI anweist, und einen anderen, der ihre Ergebnisse überprüft.
Die eigentlichen Kosten und der größte Aufwand haben sich also an den Rand verlagert: auf die Abfrage und Überprüfung. Dort investieren Unternehmen jetzt ihr Geld, obwohl KI den Kern des Prozesses beschleunigt.
KI macht dich schlauer, aber nur, wenn du bereits schlauer bist
Balaji nennt es nicht künstliche Intelligenz, sondern erweiterte Intelligenz. Da die KI nicht selbstständig agiert, ist sie nicht vollständig handlungsfähig, setzt keine langfristigen Ziele und kann ihre eigenen Ergebnisse nicht überprüfen. „Man muss viel Aufwand in die Eingabe, Überprüfung und Systemintegration investieren“, sagte er. Wie nützlich KI ist, hängt also davon ab, wie intelligent man selbst ist. Gibt man ihr falsche Anweisungen, liefert sie falsche Ergebnisse.
Er sagt auch, KI ersetzt einen nicht, sondern hilft einem lediglich dabei, mehr Aufgaben zu erledigen. Mit ihr kann man sich als brauchbarer UI-Designer oder Spieleanimator ausgeben. Erwarten Sie aber keine Expertenqualität. KI macht Sie gut genug für durchschnittliche Leistungen, nicht für herausragende. Für wirklich gute Qualität braucht man weiterhin Spezialisten.
Es gibt aber noch eine andere Aufgabe, die es übernimmt : die Aufgabe seiner Vorgängerversion. Midjourney hat Stable Diffusion aus dem Workflow verdrängt. GPT-4 hat GPT-3 ersetzt. Wie Balaji es ausdrückt: „KI nimmt nicht Ihren Job weg, sondern den der vorherigen KI.“ Sobald Unternehmen KI in einem Workflow, wie etwa der Bildbearbeitung oder Codegenerierung, Platz einräumen, bleibt dieser Platz belegt. Er wird einfach an das neuere, bessere Modell weitergegeben.
Er sagt außerdem, KI sei bei visuellen Daten besser als bei Texten. Für Menschen sei es einfacher, ein Bild zu beurteilen als einen langen Codeblock oder Textabschnitte zu überprüfen. „Benutzeroberflächen und Bilder lassen sich leicht mit dem menschlichen Auge überprüfen“, so Balaji. Bei Texten sei die Überprüfung der Richtigkeit hingegen langsamer und kostspieliger.
Kryptowährungen schränken die Möglichkeiten und Grenzen der KI ein
Balaji zieht eine klare Trennlinie zwischen der Funktionsweise von KI und Kryptographie . KI arbeitet probabilistisch; sie trifft Annahmen auf Basis von Mustern. Kryptographie hingegen ist deterministisch; sie basiert auf strengen, beweisbaren mathematischen Prinzipien. Somit stellt Kryptographie eine Grenze dar, die KI nicht ohne Weiteres überwinden kann.
KI mag zwar Captchas knacken, aber sie kann keinen Blockchain-Kontostand fälschen. „KI macht alles unecht, aber Krypto macht es wieder real“, sagt er. KI mag einfache Gleichungen lösen, aber kryptografische Gleichungen blockieren sie weiterhin.
Es gibt bereits eine Art Killer-KI: Drohnen. „Jedes Land arbeitet daran“, sagt Balaji. Nicht Bildgeneratoren oder Chatbots stellen die Bedrohung dar, sondern autonome Waffensysteme. In diesem Bereich sind die Auswirkungen von KI in der realen Welt bereits tödlich.
Er argumentiert, dass KI dezentralisiert, nicht zentralisiert. Aktuell gibt es unzählige KI-Unternehmen, nicht nur ein oder zwei Giganten. Kleine Teams mit guten Werkzeugen können viel erreichen. Und Open-Source-Modelle verbessern sich rasant. Selbst ohne riesige Budgets können kleine Gruppen alsotronKI-Systeme entwickeln. Das verteilt die Macht, anstatt sie zu konzentrieren.
Balaji lehnt auch die Idee ab, dass mehr KI immer besser sei. Seiner Meinung nach liegt das optimale Maß weder bei null noch bei 100 %. „0 % KI bedeuten langsame Leistung, 100 % hingegen schlampige Arbeit.“ Der wahre Wert liegt dazwischen. Zu wenig KI führt zu Rückstand, zu viel lässt die Qualität leiden. Er vergleicht dies mit der Laffer-Kurve, einem Konzept der Wirtschaftswissenschaften, das besagt, dass es einen optimalen Bereich zwischen Extremen gibt.
In seinem Schlussargument legt er dar, warum die heutigen Systeme beschränkte KIs und keine gottgleichen Maschinen sind. Er unterteilt dies in vier Arten von Beschränkungen:
- Ökonomisch: Jeder API-Aufruf kostet Geld. Der Einsatz von KI in großem Umfang ist nicht kostenlos.
- matic: KI kann chaotische oder kryptographische Probleme nicht lösen.
- Praktisch: Man benötigt weiterhin Menschen, die Eingaben tätigen und Ergebnisse überprüfen. KI kann die gesamte Aufgabe nicht allein erledigen.
- Physikalische Aspekte: KI sammelt nicht selbstständig Daten aus der realen Welt. Sie kann ihre Umgebung nicht wahrnehmen oder interpretieren wie Menschen.
Er schließt mit der Bemerkung, dass diese Grenzen könnten . Es ist denkbar, dass zukünftige Forscher das Denken des Systems 1 (schnell und intuitiv, wie KI) mit dem Denken des Systems 2, das logischer und sorgfältiger ist, wie traditionelle Computertechnik, verbinden können. Doch im Moment ist das reine Theorie. Es ist noch immer ein ungelöstes Problem. Es gibt keine allwissende KI. Es gibt lediglich Werkzeuge (teure, begrenzte und wettbewerbsintensive Werkzeuge), die Anweisungen befolgen und ständiger Überprüfung bedürfen.

