Nach uns die Datenflut
Jürgen Nerger – 22. Juli 2025Posts, Prompts und die Frage, wer hier eigentlich noch Verantwortung trägt.
Früher war Energiesparen einfach. Licht aus, Heizung runter, Fernseher nicht im Standby lassen. Es gab klare Regeln, und die meisten hatten irgendwas mit Steckdosen zu tun. Heute hingegen ist das schon schwieriger. Jetzt stehen wir vor der Frage, ob es überhaupt noch sinnvoll ist, abends im Bad das Licht auszuknipsen, während im Hintergrund irgendwo in Irland oder Frankfurt ein Rechenzentrum für uns arbeitet. Nur weil wir vor dem Einschlafen noch schnell ChatGPT gefragt haben, ob es nicht ein lustiges Gedicht über Croissants schreiben kann.
Man kann das albern finden. Oder beunruhigend. Fakt ist: Die unsichtbaren Energiekosten unseres bunten digitalen Zeitvertreibs sind längst aus dem Ruder gelaufen. Und niemand will es so richtig hören, weil es irgendwie ja unpraktisch wäre, ausgerechnet jetzt mit dem ganzen Spaß aufzuhören.
Wir wissen mittlerweile, dass die großen KI-Modelle unglaubliche Mengen an Strom fressen. OpenAI, Google, Meta, sie alle machen keinen Hehl daraus, dass die Rechenleistung hinter GPT-4, Gemini oder Llama nicht aus Luft und Liebe entsteht. Im Gegenteil: Sam Altman hat es kürzlich in einem Interview plakativ auf den Punkt gebracht. Er sagte, sinngemäß, es koste „Tens of Millions of Dollars“ an Stromrechnungen, wenn die Leute anfangen, höflich „Bitte“ und „Danke“ zu ihren Prompts zu sagen. Ein interessanter Gedanke. Aber einer mit echt bitterem Beigeschmack: Selbst Höflichkeit wird also irgendwann zur Kostenfrage, wenn ein Server sie mitverarbeiten muss.
Der Stromverbrauch von Rechenzentren ist, gelinde gesagt, absurd. 460 Terawattstunden jährlich, Stand 2022. Damit verbrauchen Serverfarmen weltweit mehr Strom als manche ganze Staaten. Bis 2026 sollen es laut Prognosen über 1.000 Terawattstunden werden. Das entspricht ungefähr drei Prozent des globalen Strombedarfs. Zum Vergleich: Die Luftfahrtbranche, auf die wir so gerne mit moralischem Zeigefinger zeigen, verursacht nur rund zweieinhalb Prozent der weltweiten Emissionen. Wer also glaubt, Fliegen sei böse, aber Prompten sei klimaneutral, hat etwas sehr Wesentliches übersehen.

Hinzu kommt:
Generative KI ist besonders hungrig. Während eine einfache Google-Suche ein paar Millisekunden braucht und vielleicht ein paar Server minimal beschäftigt, läuft bei einem Bild, das Midjourney für dich von „meinem Hund als Napoleon in der Wüste“ generiert, ein ganzes Arsenal an Rechenkernen heiß. Für das Training von GPT-3 wurden rund 1.300 Megawattstunden Strom verbraucht und etwa 700.000 Liter Wasser zur Kühlung eingesetzt. Für GPT-4 dürften die Zahlen weit darüber liegen, auch wenn niemand sie öffentlich nennt. OpenAI selbst schweigt zu genauen Werten. Transparenz ist in dieser Branche eben noch ein Fremdwort.
Doch nicht nur das Training verbraucht ja Ressourcen. Erst recht die Nutzung. Ein einzelner Prompt verursacht im Schnitt 2,5 bis 5 Gramm CO₂. Klingt wenig. Aber hochgerechnet auf Millionen von Usern, die täglich mit ihren KI-Agenten quatschen, landen wir bei mehreren Hundert Tonnen CO₂ pro Monat. Allein für freundliches Rumprobieren. Dazu kommen Plattformen wie Midjourney oder DALL·E, die mit jeder neuen Bildanfrage Unmengen an Rechenleistung durch die Netze jagen. Experten schätzen, dass ein KI-generiertes Bild im schlechtesten Fall den Stromverbrauch eines Wäschetrockner-Durchlaufs erreichen kann. Je nach Prompt. Komplexität macht also hungrig (man könnte ja die Wäsche nach draußen in die Sonne hängen und dafür ein Bild prompten).
Und dann wären da noch wir alle. Die Nutzerinnen und Nutzer, die es einfach mal ausprobieren. Mal hier, mal da. Mal gucken, wie mein Selfie aussieht, wenn es von Van Gogh gemalt worden wäre. Mal sehen, ob ChatGPT auch Witze über Quantenphysik versteht. Einfach, weil es geht. Wir sind die neuen Stromfresser, während wir uns noch gut fühlen, weil wir LED-Lampen kaufen und die Hafermilch aus dem Bioladen holen.
Natürlich ist das nicht nur ein individuelles Problem. Es ist ein systemisches. „Big Tech“ wie man so schön sagt, hat es einfach versäumt, uns darüber aufzuklären, was hinter diesen netten Spielereien steckt. Warum auch? Für Microsoft, Google oder Meta ist jeder Prompt ein Schritt hin zu neuen Geschäftsmodellen. Einmal in der Cloud, immer in der Cloud. Da kann man schlecht sagen: „Stell mir doch nicht so blöde Fragen.“ Stattdessen wird skaliert, verbessert, vergrößert. Und wenn irgendwo der Strom knapp wird? Dann eben neue Datenzentren in wasserreichen Regionen, während anderswo die Flüsse austrocknen.
Am Ende klicken wir ja alle.
Es wäre allerdings auch wieder zu einfach, jetzt nur mit dem Finger auf die großen Player zu zeigen. Denn am Ende klicken wir ja alle. Wir prompten. Wir spielen. Wir machen lustige KI-Bilder von Katzen und von Sonnenuntergängen, die es nie gegeben hat. Und wir posten das fröhlich frech auf allen Plattformen gleichzeitig. Wir wissen es. Und tun es trotzdem. Es wird jetzt wirklich Zeit, mal umzudenken. Nicht alles, was digital möglich ist, ist auch sinnvoll. Früher galt: Wer nichts zu sagen hat, soll schweigen. Heute wäre vielleicht ein neuer Leitsatz angebracht: Wer nichts zu rechnen hat, sollte auch nichts rechnen lassen.
Natürlich wird niemand KI wieder abschaffen. Sie ist gekommen, um zu bleiben. Aber wir könnten ja mal anfangen, sie bewusster zu nutzen. Brauche ich wirklich eine KI, um mir meine To-Do-Liste zu schreiben? Muss ich wirklich wissen, wie mein Hund als Mensch aussieht? Oder reicht es vielleicht, hier und da das eigene Hirn zu bemühen? Ist auf jeden Fall gesünder. Studien haben ergeben, dass die Hirntätigkeit um 70 % sinkt, wenn man den Liebesbrief von ChatGPT schreiben lässt, anstatt ihn selbst zu formulieren.
Auch digitale Enthaltsamkeit kann eine Form von Nachhaltigkeit sein. Prompt-freie Tage. KI-freier Sonntag. Manchmal ist Nichtwissen tatsächlich klimafreundlicher als noch eine Antwort.
Und Aperol zu trinken, ist günstiger, als ein Bild davon zu posten.
