Im Jahr 2024 sind die Investitionen in Rechenzentren um mehr als ein Drittel auf insgesamt über 280 Milliarden US-Dollar gestiegen [1]. Der große Treiber dieser Entwicklung sind die Investitionen bei Public-Cloud-Anbietern und Hyperscalern mit einem Anstieg von fast 50 % gegenüber dem Vorjahr. Dies kann als Symptom des KI-Fiebers verstanden werden: Gab es 2023 noch einen moderaten Anstieg um 10 %, hat sich das Wachstum 2024 um das Fünffache beschleunigt. Bis 2030 wird sogar ein Anstieg der Hyperscaler-Rechenzentren auf insgesamt das Dreifache der aktuell verfügbaren Kapazität erwartet [2].
KI-Hype als Treiber der Investitionen
Jüngst hat hierzu das Project Stargate Schlagzeilen gemacht, bei dem insgesamt 500 Milliarden US-Dollar in KI-Rechenzentren für OpenAI (bekannt für die Entwicklung von ChatGPT) investiert werden sollen [3]. Immerhin soll bei den gigantischen Rechenzentren für das KI-Training, die im Rahmen von Project Stargate in Texas entstehen sollen, einigermaßen nachhaltige Energie zum Einsatz kommen, um den immensen Energiebedarf zu decken. Trotz des Standorts im Ölstaat Texas ist Windkraft der primäre Energielieferant für den Clean Campus, auf dem das erste Stargate-Rechenzentrum entsteht [3]. So oder so ist der Energiehunger von KI nicht zu unterschätzen und kennt auf absehbare Zeit nur eine Richtung. 2024 führte das bereits zu einem Anteil von 0,2 % an den weltweiten Emissionen, was bis 2030 noch um das Zehnfache ansteigen dürfte [4].
Herausforderungen und limitierte Skalierbarkeit
Der gigantische Energieverbrauch liegt auch in der Art und Weise, wie KI-Systeme trainiert werden. Letztlich beruhen die Erfolge aktueller Large-Language-Modelle (ChatGPT etc.) auf dem Prinzip „viel hilft viel“: Nur durch Training auf immensen Datenmengen können die Modelle ihr Potenzial ausschöpfen, was größte Cluster mit spezialisierter Hardware verlangt. Zum Beispiel wurde das aktuelle Llama-3-Modell auf Clustern mit insgesamt 24.000 Nvidia H100 GPUs trainiert [5]. Bei einem Listenpreis von knapp unter 40.000 € pro H100 sind da auch 500 Milliarden US-Dollar schnell weg. Dieser Trainingsansatz kann jedoch selbst bei scheinbar endlosem Budget nicht ewig funktionieren. Bereits 2026 werden keine neuen Texte für das Training von KI-Modellen mehr erschlossen werden können, weil schon „das ganze Internet“ verwendet wurde [6]. Dadurch könnte sich die Entwicklung hin zu einer allgemein einsetzbaren KI verlangsamen. Alternative Ansätze könnten einen Ausweg bringen und zu effizienterem Training führen. Ein Positivbeispiel ist hier der Tokenizer-freie Ansatz von Aleph-Alpha aus Deutschland [7]. Ein weiteres Beispiel für alternative Wege im KI-Training ist Deepseek R1. Der Open-Source-Konkurrent aus China soll seinen Erfolg auch einer erzwungenen Effizienzsteigerung verdanken, die durch das Export-Embargo der USA für KI-Chips nach China notwendig wurde [8].
Die Cloud-Nutzer sind überall
Insgesamt bleibt aber festzuhalten, dass es auch ohne KI-Anwendungen einen Trend zur Cloud gibt, der sich nicht aufhalten lässt. Einer Bitkom-Umfrage zufolge spielt die Cloud eine entscheidende Rolle für die deutsche Wirtschaft. Nur für 5 % der befragten Unternehmen ist die Cloud kein Thema [9]. Must-have-Kriterien bei der Auswahl des Cloudproviders sind dabei vor allem das Vertrauen in IT-Sicherheit, Datenschutz und Compliance, die Leistungsfähigkeit und Stabilität sowie die Möglichkeit zur Datenverschlüsselung. Zudem bevorzugen 99 % der Befragten einen Standort in Deutschland für die verwendeten Rechenzentren.
Verweise
- https://www.srgresearch.com/articles/2024-was-a-boon-year-for-sales-of-data-center-gear-thanks-to-generative-ai
- https://www.srgresearch.com/articles/hyperscale-data-center-capacity-to-triple-by-2030-driven-by-generative-ai
- https://www.heise.de/news/KI-Monsterprojekt-Stargate-ist-bereits-im-Bau-10256185.html
- https://www.srf.ch/wissen/kuenstliche-intelligenz/energie-bilanz-von-ki-warum-ki-in-zukunft-noch-mehr-energie-verbrauchen-wird
- https://www.siliconrepublic.com/machines/meta-is-using-two-nvidia-gpu-clusters-to-train-llama-3
- https://www.srf.ch/wissen/kuenstliche-intelligenz/keine-trainings-daten-mehr-schon-2026-gehen-der-kuenstlichen-intelligenz-die-daten-aus
- https://www.heise.de/news/Aleph-Alpha-Neue-KI-Architektur-fuer-souveraene-LLMs-10251568.html
- https://1e9.community/t/was-du-ueber-deepseek-wissen-musst-chinas-open-source-ki-erschreckt-das-silicon-valley/20862
- https://www.bitkom.org/sites/main/files/2024-07/240703Bitkom-ChartsCloud-Report-2024final.pdf