Die großen Technologiekonzerne erhöhen ihre Ausgaben für KI, da sich logische Modelle immer mehr durchsetzen

- Technologiegiganten wie Microsoft, Amazon und Meta werden ihre Ausgaben für KI bis zum nächsten Jahrzehnt auf über 500 Milliarden Dollar jährlich erhöhen.
- Die Investitionen in KI verlagern sich von der Modellentwicklung hin zur Inferenz, die bis 2032 fast 50 % der KI-Budgets ausmachen könnte.
- Die Denkmodelle von DeepSeek und OpenAI verändern die KI grundlegend, indem sie die Effizienz steigern und die Abhängigkeit von teuren Chips verringern.
Die größten Technologiekonzerne werden ihre jährlichen Ausgaben für künstliche Intelligenz bis zum Beginn des nächsten Jahrzehnts auf über 500 Milliarden Dollar erhöhen, was zum Teil auf die neuere KI-Methodik von DeepSeek und OpenAI zurückzuführen ist.
Microsoft, Amazon und Meta Platforms, die zusammen als Hyperscaler, werden Prognosen zufolge im Jahr 2025 371 Milliarden US-Dollar in KI-Rechenzentren und Rechenressourcen investieren – ein Anstieg von 44 % gegenüber dem Vorjahr. Bis 2032 soll diese Summe auf 525 Milliarden US-Dollar ansteigen.
Historisch gesehen flossen die meisten Investitionen in KI in Rechenzentren und Chips, um hochkomplexe neue KI-Modelle zu trainieren oder zu erstellen. Nun wollen die Unternehmen einen anderen Ansatz verfolgen. Es wird erwartet, dass Technologieunternehmen daher mehr Geld in die Inferenz investieren, also in den Betrieb der trainierten Systeme.
Wie DeepSeek und OpenAI die Ausgabentrends im Bereich KI prägen
Die chinesischen Unternehmen DeepSeek und OpenAI sowie einige andere Firmen haben neue Schlussfolgerungsmodelle eingeführt und damit den Wettbewerb unter den Unternehmen, die noch keinen ähnlichen Ansatz verfolgen, verschärft.
Diese Systeme ahmen die menschliche Problemlösung nach, indem sie zusätzliche Zeit für die Verarbeitung und Berechnung von Antworten auf Benutzeranfragen benötigen.
Der Aufstieg von DeepSeek, das behauptete, ein wettbewerbsfähiges Modell zu geringeren Kosten als einige seiner führenden US-Konkurrenten entwickeln zu können, weckte Bedenken hinsichtlich der hohen Investitionen in die KI-Entwicklung im US-amerikanischen Technologiesektor. Infolgedessen bevorzugen einige führende Technologieunternehmen effizientere KI-Systeme, die mit weniger Chips auskommen.
Allerdings eröffnen Denkmodelle auch neue Möglichkeiten, mit Software Gewinn zu erzielen und möglicherweise nach der Einführung des Modells weitere Entwicklungskosten zu verlagern. Dies dürfte Investitionen in diese Strategie und generell höhere Ausgaben für KI fördern.
Mandeep Singh, Analyst bei Bloomberg Intelligence, schrieb: „Das Wachstum der Investitionsausgaben für KI-Training könnte deutlich langsamer ausfallen als bisher erwartet.“
Er merkte jedoch an, dass die enorme Aufmerksamkeit, die DeepSeek genießt, Technologieunternehmen wahrscheinlich dazu ermutigen wird, ihre Investitionen in Inferenz zu erhöhen, wodurch dieses Marktsegment das schnellste Wachstum im Bereich der generativen KI aufweisen wird.
Berichten zufolge werden in diesem Jahr voraussichtlich über 40 % der KI-Budgets von Hyperscalern in das Training fließen; im Jahr 2032 soll dieser Anteil jedoch auf nur noch 14 % sinken. Im Gegensatz dazu könnte fast die Hälfte aller jährlichen KI-Ausgaben in inferenzbasierte Investitionen fließen.
Singh schrieb hingegen, dass Alphabet Inc. mit seiner Tochtergesellschaft Google dank seiner hauseigenen Chips für Training und Inferenz am besten positioniert zu sein scheint, diesen Wandel schnell zu vollziehen. Andere Technologieunternehmen wie Microsoft und Meta verfügen möglicherweise nicht über dieselbe Flexibilität, da sie stark auf Chips von Nvidia Corp. angewiesen sind.
Wie Denkmodelle die KI durch strukturiertes, logisches Denken verändern
Reasoning-Modelle sind spezialisierte Sprachmodelle, die zur Lösung von Problemen durch explizites logisches Denken entwickelt wurden und sich als neues Paradigma in der KI herausgebildet haben. Sie überwinden herkömmliche LLMs bei anspruchsvollen Aufgaben, indem sie Probleme aufschlüsseln, vor der Reaktion „nachdenken“ und Lösungen iterativ verbessern.
Historisch gesehen konnten allgemeine LLMs einfache Antworten liefern. Mit der Einführung von Argumentationsmodellen folgen die Antworten einem strukturierteren Denkprozess, und der Weg zur Antwort wird aufgezeigt. Während einige Modelle ihre logische Argumentationsphase jedoch klar darstellen, tun dies andere nicht.
Die Argumentationsphase zeigt, wie das Modell das gestellte Problem in kleinere Teilprobleme zerlegen kann (Dekomposition), verschiedene Lösungsansätze ausprobieren kann (Ideenfindung), die besten Ansätze auswählen kann (Validierung), ungültige Ansätze ablehnen kann (gegebenenfallstrac) und schließlich die beste Lösung auswählen kann (Ausführung/Lösung).
Ihre Bank nutzt Ihr Geld. Sie bekommen nur die Krümel. Sehen Sie sich unser kostenloses Video an, wie Sie Ihre eigene Bank werden können.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















