ChatGPT verbraucht 17.000 Mal mehr Strom als ein durchschnittlicher US-Haushalt täglich: Bericht

ChatGPT verbraucht viel mehr Strom als der durchschnittliche US-Haushalt.

  • ChatGPT verbraucht täglich mehr als eine halbe Million Kilowattstunden Strom, berichtete The New Yorker.
  • Im Vergleich dazu verbraucht der durchschnittliche US-Haushalt nur 29 Kilowattstunden.
  • Eine Schätzung, wie viel Strom die boomende KI-Industrie verbraucht, ist schwer zu sagen.

KI verbraucht eine Menge Strom.

Der lebhafte Chatbot von OpenAI, ChatGPT, ist es wahrscheinlich Demnach werden mehr als eine halbe Million Kilowattstunden Strom verbraucht, um etwa 200 Millionen Anfragen pro Tag zu beantworten Der New Yorker.

Die Veröffentlichung berichtete, dass der durchschnittliche US-Haushalt täglich etwa 29 Kilowattstunden verbraucht. Wenn man die Strommenge, die ChatGPT pro Tag verbraucht, durch die Menge dividiert, die ein durchschnittlicher Haushalt verbraucht, zeigt sich, dass ChatGPT mehr als das 17.000-fache der Strommenge verbraucht.

Das ist eine Menge. Und wenn generative KI noch weiter geht angenommen, es könnte deutlich mehr abfließen.

Wenn Google beispielsweise generative KI-Technologie in jede Suche integrieren würde, würde dies nach Berechnungen von Alex de Vries, einem Datenwissenschaftler der niederländischen Nationalbank, in einem Jahr etwa 29 Milliarden Kilowattstunden verbrauchen Papier für die Zeitschrift Joule für nachhaltige Energie. Laut The New Yorker ist das mehr Strom, als Länder wie Kenia, Guatemala und Kroatien in einem Jahr verbrauchen.

„KI ist einfach sehr energieintensiv“, sagte de Vries gegenüber Business Insider. „Jeder einzelne dieser KI-Server kann bereits so viel Strom verbrauchen wie mehr als ein Dutzend britische Haushalte zusammen. Die Zahlen summieren sich also sehr schnell.“

Dennoch lässt sich nur schwer abschätzen, wie viel Strom die boomende KI-Industrie verbraucht. Es gibt erhebliche Unterschiede in der Funktionsweise großer KI-Modelle, und Big-Tech-Unternehmen – die den Boom vorangetrieben haben – waren nicht der Fall genau offen über ihren Energieverbrauch, heißt es Der Rand.

Allerdings in seinem Aufsatz, de Vries hat eine grobe Berechnung erstellt, die auf Zahlen von Nvidia basiert – das einige als „Cisco“ des KI-Booms bezeichnen. Nach Angaben von New Street Research, die von CNBC gemeldet wurden, hält der Chiphersteller etwa 95 % des Marktanteils bei Grafikprozessoren.

De Vries schätzt in dem Papier, dass der gesamte KI-Sektor bis 2027 jährlich zwischen 85 und 134 Terawattstunden (eine Milliarde Mal pro Kilowattstunde) verbrauchen wird.

„Sie sprechen davon, dass der KI-Stromverbrauch bis 2027 möglicherweise ein halbes Prozent des weltweiten Stromverbrauchs ausmachen wird“, sagte de Vries gegenüber The Verge. „Ich denke, das ist eine ziemlich bedeutende Zahl.“

Einige der Unternehmen mit dem höchsten Stromverbrauch weltweit verblassen im Vergleich dazu. Den Berechnungen von BI zufolge verbraucht Samsung fast 23 Terawattstunden, während Technologiegiganten wie Google etwas mehr als 12 Terawattstunden verbrauchen und Microsoft etwas mehr als 10 Terawattstunden für den Betrieb von Rechenzentren, Netzwerken und Benutzergeräten verwendet basierend auf einem Bericht von Energielösungen für Verbraucher.

OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme von BI.

Lesen Sie den Originalartikel auf Business Insider

source site-18