Your bank is using your money. You’re getting the scraps.WATCH FREE

Die hohen Klimakosten der KI gehen über die bloße Luftversorgung hinaus – sie erfordern mehr

In diesem Beitrag:

  • Künstliche Intelligenz ist zwar spannend in der Anwendung, hat aber ihren Preis.
  • Das KI-Modell benötigt enorme Mengen an Energie für das Training und die Ausführung von Geschäftsprozessen, und zwar im Gigawattbereich.
  • Rechenzentren sind ein Schlüsselfaktor bei der Verzögerung der Stilllegung von Kohle- und Gaskraftwerken, um die Nachfrage zu decken.

Künstliche Intelligenz hat aber auch eine Schattenseite, die zwar oft diskutiert, aber weniger beachtet wird: ihre Klimakosten.

Trotz aller Begeisterung und des Potenzials von KI benötigt das Training von KI-Modellen enorme Mengen an Energie. Selbst bei der Nutzung zum Schreiben von Texten oder Erstellen von Bildern ist noch genügend Energie für den Betrieb erforderlich. Diese Prozesse führen zur Freisetzung erheblicher Mengen an CO₂, abhängig vom Standort des Rechenzentrums und dem Einsatzort des KI-Modells.

Quelle: Leyla Acaroglu .

Größere Modelle benötigen mehr Energie

Experten sagen, dass sich die Kohlenstoffemissionen mit zunehmender Reife und Weiterentwicklung der Technologie im Laufe der Zeit nur noch verschlimmern werden, da Unternehmen versuchen, immer größere Modelle zu bauen, weil die Technologie skalierbar ist und ihre Leistung mit der Größe zunimmt, was wiederum für das Geschäft vorteilhaft, aber für die Umwelt kostspielig ist.

Alex de Vires erklärt, dass größere Modelle auch einen höheren Energiebedarf verursachen, was der Umwelt schadet. Er ist Gründer von Digiconomist, und der Forschungsschwerpunkt seines Unternehmens liegt auf den Umweltauswirkungen neuer Technologien.

Das Training von KI-Modellen im großen Maßstab, wie sie beispielsweise im Hintergrund von ChatGPT laufen, verbraucht enorme Mengen an Energie, wie Forscher im Laufe der Jahre festgestellt haben. David Petterson, Informatikprofessor an der UC Berkeley und Hauptautor der 2021 veröffentlichten Studie, schrieb, dass das KI-Modell GPT-3, das von OpenAI für den Einsatz als ChatGPT optimiert wurde, offenbar 1287 Megawatt Strom für das Training benötigte. Diese Energiemenge reicht aus, um 123 durchschnittliche US-Haushalte ein ganzes Jahr lang mit Strom zu versorgen.

Siehe auch:  Wie Pferdeflüstern die Geheimnisse des Roboterdesigns entschlüsselt

Obwohl wir hier über das weltberühmte KI-Modell sprechen, das zu seiner Zeit das größte gewesen sein mag, wurden danach auch viele andere Modelle entwickelt, die ebenfalls enorme Mengen an Energie verbrauchen. 

Laut Sacha Luccioni, Leiterin des Bereichs KI und Klima bei Hugging Face, benötigte das Gopher-Modell, ein Projekt von Google DeepMind, das 2021 angekündigt wurde, schätzungsweise 1066 Megawattstunden, wie sie in einer weiteren Forschungsarbeit erwähnte, die 2022 veröffentlicht wurde. 

Das Modell der aktuellen Generation verursacht noch höhere Klimakosten

Beide Modelle gehören jedoch einer älteren Generation von KI-Modellen an und sind nach heutigen Maßstäben vergleichsweise klein. GPT-3s Nachfolger, GPT-4, gilt als zehnmal größer, und sein Training erforderte einen Energieverbrauch zwischen 51 und 62 Gigawatt, was laut dem Forscher Kasper Groes Albin Ludvigsen den Gesamtenergiebedarf von 4600 amerikanischen Haushalten übersteigt. 

Quelle: Statista .

Genauso hat Google jetzt ein viel größeres Modell als Gopher, das Gemini heißt, und obwohl Google nicht offengelegt hat, wie viel Energie es benötigt, gilt die einfache Rechnung: Je größer man baut, desto mehr Energie benötigt es.

Diese Schätzungen bezogen sich lediglich auf die Entwicklungs- und Trainingsphasen. Ein weiterer wichtiger Punkt ist, dass diese Modelle für den Einsatz in realen Anwendungen konzipiert sind, in denen sie auf Basis ihres Trainings Ergebnisse liefern müssen. Die Erstellung dieser Ergebnisse als Reaktion auf Benutzeranfragen erfordert ebenfalls Energie.

Siehe auch:  Chinesische KI-Chip-Startups reduzieren Leistungsspezifikationen, um sich den Zugang von TSMC zu sichern

Experten zufolge verbraucht ChatGPT für die Beantwortung von 1000 Anfragen 47 Watt, was dem Stromverbrauch von fünf herkömmlichen LED-Lampen in einer Stunde entspricht. Stellen Sie sich nun vor, wie schnell sich dieser Verbrauch summieren kann, und das, obwohl es sich hier nur um textbasierte Antworten handelt. 

CO2-Fußabdruck verringern können, indem sie Rechenzentren nutzen, die mit sauberer Energie betrieben werden, da die CO2-Emissionen von KI je nach Speicherort und Betriebsort stark variieren.

Laut Bloomberg ist der Strombedarf in letzter Zeit bereits gestiegen, und der zusätzliche Bedarf der expandierenden Rechenzentren übersteigt sogar den Ausbau erneuerbarer Energien. Daher verzögern Energieversorger weltweit die Stilllegung von Kohle- und Gaskraftwerken, was den CO₂-Fußabdruck von KI zusätzlich erhöht.

Die Originalgeschichte finden Sie hier .

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an .

Link teilen:

Haftungsausschluss:  Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführen tron /oder einen qualifizierten Fachmann zu konsultieren dent

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan