Nein, KI-Abfragen und Bilder sind keine Kohlenstoffbomben, also hören Sie auf zu hyperventilieren

Melden Sie sich an für tägliche Nachrichten-Updates von CleanTechnica per E-Mail. Oder folgen Sie uns auf Google News!


Regelmäßige Leser werden es entweder zu schätzen wissen oder hassen, dass ich meine Artikel und Präsentationen seit etwa 20 Monaten mit Bildern verziere, die von Algorithmen künstlicher Intelligenz generiert werden. Ich werde nicht auf alle Gründe eingehen, sondern nur ein paar einfache Berechnungen zum Stromverbrauch anstellen, um eine Untergruppe regelmäßiger Leser dazu zu bringen, bereits aufzugeben.

Natürlich ist das nicht das erste Mal, dass ich mich in diese Gewässer wagte. Vor fünf Jahren habe ich eine globale Bewertung von Cloud-Computing-Dienstanbietern durchgeführt, um diese Hysteriewelle einzuschätzen, die besagte: „Rechenleistung bringt uns um!“. Damals hätte ich Alibaba nicht empfohlen, aber andere große Anbieter kauften Ökostrom mit PPAs und hochwertige Emissionszertifikate.

Später im selben Jahr musste ich mich wieder mit dem Thema befassen, weil gerade einer der ersten Hype-Zyklen im Gange war, in denen es hieß: „Die Ausbildung unserer zukünftigen KI-Herrscher bringt uns um!“ Ich zerlegte die schwachen Annahmen der MIT-Studie, die das herausgefunden hatte, und ignorierte die Hysterie wieder.

Ich werde nicht mit dem Finger auf sie zeigen, aber selbst CleanTechnica Autoren, die es besser wissen sollten, haben dieses Jahr Leute zitiert, die offensichtlich nicht wissen, wovon sie reden. Das ist Teil des aktuellen Hype-Zyklus „Okay, ChatGPT ist wirklich nützlich, aber es bringt uns um!“. Um es ganz offen zu sagen: Jeder, der jemals über Teslas KI-gestützte autonome Fahrfunktionen geschrieben hat, hätte darauf nicht hereinfallen sollen, aber die Leute rechnen im Allgemeinen nicht gern.

Lassen Sie uns das ein wenig klarstellen. Es ist keine Raketenwissenschaft.

Erstens benötigen große Sprachmodelle (LLMs) und generative Bildmodelle (GIMs) zwar viel Strom, aber nur, um sie zu trainieren. Es werden enorme Datenmengen gesammelt. Es wird ein Ansatz zur Aufnahme dieser Daten verwendet. Das geschieht. Diese Aufnahme und Verarbeitung ist sehr energieintensiv. Das Training des aktuellen OpenAI ChatGPT 4o-Modells ist gemeldet 10 Gigawattstunden benötigt zu haben. Das ist keine unerhebliche Energiemenge. DALL-E 3.0 benötigte wahrscheinlich 1 bis 2 GWh.

Aber die Abfrage der Modelle erfordert keine enormen Mengen an Strom, etwa 0,001-0,01 kWh pro Abfrage. In der Informatik gibt es eine Faustregel: Wenn etwas schnell gespeichert werden kann, dauert es länger, es wieder zu speichern, und umgekehrt. Ein Grund dafür, dass LLMs und GIMs viel Zeit für die Verarbeitung benötigen, ist, dass sie für schnelle Antworten optimiert werden. Die Absicht besteht darin, diese 1-10 GWh über potenziell Milliarden von Abfragen zu amortisieren.

Nehmen wir an, das kalifornische Team von OpenAI und andere fast ausschließlich an der Küste ansässige, liberale, klimabewusste Elite-Entwickler von LLMs und GIMs wären komplette Idioten. Nehmen wir an, sie würden für die Erzeugung ihrer LLMs und GIMs durchschnittlichen US-Strom verbrauchen, also etwa 0,4 kg CO2e pro kWh. Wie hoch wäre dann die Kohlenstoffschuld?

Eine Gigawattstunde entspricht 400 Tonnen CO2e. 10 GWh entsprechen 4.000 Tonnen. Das entspricht der Kohlenstoffschuld der durchschnittlichen Autofahrten von 270 bis 2.700 Amerikanern. Das wäre eine vernünftige Menge, aber es entspricht der jährlichen Autofahrt einer Kleinstadt (was ein Hinweis auf das wahre Problem in Amerika sein sollte).

Aber sie sind keine kompletten Idioten, wie ich 2019 mehrmals betont habe. Sie kennen die Kohlenstoffschuld des Stroms und sind keine Kohlebarone. Nehmen wir OpenAI als Beispiel: Das Unternehmen führt alle seine Berechnungen auf der Cloud-Plattform von Microsoft Azure durch, die ich 2019 in Bezug auf die Kohlenstoffreduzierung am höchsten eingestuft habe.

Microsoft kauft für viele seiner Rechenzentren erneuerbaren Strom und deckt derzeit 44 % seines jährlichen Strombedarfs durch Stromabnahmeverträge für Wind- und Solarenergie. Darüber hinaus baut das Unternehmen seine Rechenzentren, wann immer möglich, in der Nähe von Wasserkraftanlagen, um kohlenstoffarme Kilowattstunden einzusparen.

Nehmen wir also an, dass OpenAI und Microsoft immer noch ziemlich dumm waren und all diese Rechenleistung in einem Azure-Rechenzentrum untergebracht haben, das nur 56 % besser ist als der Durchschnitt oder 0,22 kg CO2e pro kWh. Diese 400 bis 4.000 Tonnen schrumpfen auf 220 bis 2.200 Tonnen CO2e, was 150 bis 1.500 amerikanischen Fahrern entspricht, um die Modelle zu trainieren.

OpenAI hat jedoch seinen Sitz in Kalifornien in der Region San Francisco, das kalifornische Stromnetz wurde auf 0,24 kg CO2e pro kWh abgespeckt und Microsoft kauft ebenfalls erneuerbaren Strom für Rechenzentren in der Gegend von San Francisco. 56 % von 0,24 kg CO2e sind 0,13 kg CO2e / kWh. Bei dieser Kohlenstoffintensität erzeugt das Training der Modelle 130 bis 1.300 Tonnen CO2e. Ist das etwas, worüber man nach Hause freudig schreiben kann? Nein, aber wir sind auf 90 bis 900 amerikanische Fahrer heruntergegangen, also ein Dorf voller Menschen.

Aber stellen wir die nächste Frage. Das ist die langsam in Teil des Datenmanipulationsprozesses, nicht des schnellen Abrufprozesses. Daher muss es über die Anzahl der generierten ChatGPT-Abfragen oder DALL-E-Bilder amortisiert werden. Seien wir einigermaßen fair und gehen wir davon aus, dass die Modelle nur sechs Monate halten, bevor sie ersetzt werden, sodass die Kohlenstoffschuld nur auf sechs Monate Abfragen und Bilder verteilt wird.

Wie viele ChatGPT-Abfragen gibt es pro Monat? Es gibt 1,8 Milliarden Besuche pro Monat und sie dauern laut den Daten, die ich finden konnte, etwa 7 bis 8 Minuten. Das deutet auf 3-6 Abfragen pro Besuch hin. Nehmen wir 4 Abfragen an, das sind also etwa 7 Milliarden Abfragen pro Monat und etwa 43 Milliarden Abfragen während der Lebensdauer des Modells. Diese 1.300 Tonnen CO2e werden durch 43 Milliarden geteilt, um die Kohlenstoffschuld pro Abfrage zu erhalten, also etwa 0,03 Gramm pro Abfrage.

Im Gegensatz dazu erzeugt DALL-E, das eine geringere Kohlenstoffschuld aufweist, etwa zwei Millionen Bilder pro Tag oder etwa 365 Millionen Bilder in einem halben Jahr. Das sind etwa 0,356 Gramm pro Bild. Wow, drei davon und Sie wären über ein Gramm CO2e.

Oh, aber warten Sie, wir sind noch nicht fertig. Jetzt müssen wir tatsächlich eine Abfrage ausführen oder ein Bild generieren. Denken Sie daran, wie viel Energie das verbraucht: 0,001-0,01 kWh pro Abfrage. Bei 0,4 kg pro kWh sind das 0,4 bis 4 Gramm pro Abfrage. Aber denken Sie daran, dass OpenAI seine Dienste auf Microsoft Azure betreibt und Microsoft GWh erneuerbaren Strom und Tonnen hochwertiger Emissionszertifikate kauft (anders als viele andere).

Nehmen wir den US-Durchschnitt von 56 %. Das sind 0,2 bis 2,2 Gramm CO2e pro Abfrage oder Bild. In Kalifornien wären es 0,07 bis 0,7 Gramm.

Nehmen wir das Azure-Rechenzentrum in meiner Nähe, das nicht ausschließlich für vertrauliche kanadische Informationen bestimmt ist und daher mit Abstand dasjenige, in dem meine Abfragen ausgeführt und meine Bilder generiert werden. Es steht in Quincy im US-Bundesstaat Washington und liegt strategisch günstig in der Nähe mehrerer großer Wasserkraftwerke. Nur 140 Kilometer nördlich liegt der Grand Coulee Dam mit einer Kapazität von über 6.800 Megawatt. Der Chief Joseph Dam, etwa 80 Kilometer nördlich gelegen, liefert 2.614 Megawatt Strom. Der Wells Dam, etwa 110 Kilometer nördlich, wird von Douglas County PUD betrieben und liefert 840 Megawatt erneuerbare Energie. Näher an Quincy, etwa 65 Kilometer westlich, liegt der Rocky Reach Dam mit 1.300 Megawatt, und der Rock Island Dam, 50 Kilometer westlich, liefert weitere 624 Megawatt.

Wie hoch ist der wahrscheinliche CO2e-Ausstoß des Quincy Azure Cloud-Rechenzentrums pro kWh? Wahrscheinlich etwa 0,019 kg CO2e/kWh. Die Kohlenstoffintensität meiner durchschnittlichen Abfrage oder meines durchschnittlichen Bildes beträgt etwa 0,000019 Gramm CO2e. Zählt man die 0,365 Gramm Kohlenstoffschuld pro Bild hinzu, bin ich immer noch bei 0,365 Gramm. Zählt man die 0,03 Gramm pro ChatGPT-Abfrage hinzu, bin ich immer noch bei 0,03 Gramm. Na, dann kaufe ich mir ein paar hochwertige Emissionszertifikate, um das auszugleichen. Oh, Moment mal. Eine durchschnittliche Tasse Kaffee hat eine Kohlenstoffschuld von 21 Gramm, also Dutzende oder Hunderte Male mehr? Und ich müsste vier Milliarden Bilder erstellen, um den Kohlenstoffverbrauch eines einzelnen amerikanischen Autofahrers auszugleichen? Egal.

Oh, Moment, habe ich das nicht schon genug widerlegt? Sie beschweren sich, dass ich nur die Rechenleistung zähle, nicht die Klimaanlage? Raten Sie mal, moderne Rechenzentren arbeiten mit einer Energieeffizienz von 1,1. Das bedeutet, dass sie für jede Einheit Strom 10 % mehr für Strom, Licht und dergleichen verbrauchen. Nur zu, addieren Sie 10 % zu fast nichts. Ich warte.

Oh, da ist noch mehr? Sicherlich. Es ist nicht so, dass der Strombedarf von Trainingsmodellen für das zweitwertvollste Unternehmen der Welt, NVIDIA, mit einer aktuellen Marktkapitalisierung von etwa 3,2 Billionen US-Dollar, nach Microsoft der zweitwertvollste, nicht wirklich offensichtlich wäre. Warum kommt NVIDIA hier ins Spiel? Haben wir nicht über OpenAI gesprochen? Nun, NVIDIA stellt die Grafikprozessoreinheiten (GPUs) bereit, auf denen das gesamte Training und die Ausführung dieser Modelle laufen. Seine größten Kunden haben nach schnelleren KI-Rechnern bei geringerem Stromverbrauch gefragt.

Hier kommt Blackwell ins Spiel, die neueste GPU-Architektur von NVIDIA. Warum ist sie dafür wichtig? Weil sie doppelt so schnell ist, um Modelle zu trainieren, und sogar noch schneller, um Abfragen auszuführen? Nein, obwohl das so ist, liegt es daran, dass sie 25-mal energieeffizienter für Training und Abfragen ist. Und ja, das beantwortet die Frage nach schmutzigeren Grids und Unternehmen, die nicht Microsoft sind, für alle, die sich das fragen.

Gehen Sie zurück zu all den Zahlen, die weniger als ein Gramm pro Bild oder Abfrage ausmachen, und teilen Sie die Gramm durch 25. Dann hören Sie bitte auf, mich mit Empörungsbekundungen über diesen Aspekt meiner Verwendung von Elektrowerkzeugen für Recherche und Bildgenerierung zu belästigen. Leute, denen das Urheberrecht und die Arbeitsplätze von Kreativen am Herzen liegen, können sich gerne weiterhin Sorgen machen, aber ich respektiere zumindest Ihre Bedenken und bin bereit, darüber zu diskutieren.


Als Bonus beantworte ich eine Frage, die sich manche vielleicht gestellt haben, als ich auf Teslas autonome Funktionen hingewiesen habe, und zwar, welche Relevanz sie für diese Diskussion haben. Teslas haben große maschinelle Lernmodelle, die auf speziellen GPUs laufen, die mit absurden Geschwindigkeiten alle Sensordaten integrieren, die jede Sekunde in sie einfließen. Wenn maschinelle Lernabfragen die unglaublichen Stromfresser wären, die die aktuelle Hysterie suggeriert, würde Teslas mehr Energie verbrauchen, um seine autonomen Funktionen auszuführen, als um das 2.800 Kilogramm schwere Auto mit 110 Kilometern pro Stunde über die Autobahn zu schieben. Seine Batterie wäre doppelt oder dreimal so groß. Und jeder, der jemals etwas über Teslas autonome Funktionen und den schrecklichen Energieverlust der maschinellen Lernmodelle geschrieben hat, hätte in der Lage sein sollen, die Zusammenhänge zu verbinden.


Haben Sie einen Tipp für CleanTechnica? Möchten Sie Werbung schalten? Möchten Sie einen Gast für unseren CleanTech Talk-Podcast vorschlagen? Kontaktieren Sie uns hier.


Neueste CleanTechnica.TV-Videos

Werbung




CleanTechnica verwendet Affiliate-Links. Unsere Richtlinien finden Sie hier.


source site-34