Künstliche Intelligenz, insbesondere Chatbots wie ChatGPT, sind zu unverzichtbaren Werkzeugen in unserem digitalen Alltag geworden. Doch nur wenige Menschen sind sich der enormen Energiemenge bewusst, die zum Betrieb dieser hochentwickelten Systeme erforderlich ist. Hinter jeder Antwort verbirgt sich eine kolossale Infrastruktur, die erhebliche Ressourcen verbraucht und Fragen zur Nachhaltigkeit dieser Technologie aufwirft.
Rechenzentren, in denen KI-Modelle gehostet und trainiert werden, stellen einen bedeutenden Teil des weltweiten Stromverbrauchs dar. In den USA verbrauchten sie 2023 4,4 % des Stroms, und dieser Anteil wird bis 2030 voraussichtlich mindestens verdoppelt. Dieses schnelle Wachstum hängt direkt mit dem explosionsartigen Anstieg der Nachfrage nach KI-Dienstleistungen zusammen, wobei täglich Milliarden von Anfragen verarbeitet werden.
Das Training von Sprachmodellen ist besonders energieintensiv. Um Mustererkennung und Vorhersagen zu lernen, analysieren diese Systeme wochen- oder monatelang riesige Datensätze. Zum Beispiel erforderte das Training von GPT-4 50 Gigawattstunden, genug, um eine große Stadt wie San Francisco drei Tage lang mit Strom zu versorgen. Diese Phase stützt sich auf leistungsstarke Server mit mehreren Grafikverarbeitungseinheiten (GPUs).
Die Inferenz, also der Moment, in dem der Chatbot eine Antwort auf eine Anfrage generiert, verbraucht aufgrund des enormen Anfragevolumens ebenfalls viel Energie. Bei mehr als 2,5 Milliarden täglichen Prompts allein bei ChatGPT müssen die Server kontinuierlich laufen, um nahezu sofortige Antworten zu liefern.
Forscher arbeiten daran, diese Verbräuche besser zu quantifizieren und Wege zu ihrer Reduzierung zu finden. Allerdings halten große Tech-Unternehmen diese Daten oft geheim, was eine genaue Bewertung der Umweltauswirkungen erschwert.
Der Trainingsprozess von KI-Modellen
Das Training eines KI-Modells besteht darin, es große Datensätze analysieren zu lassen, damit es Muster erkennt und bestimmte Aufgaben ausführen kann. Dies beinhaltet mathematische Berechnungen, die von spezialisierten Prozessoren durchgeführt werden, oft von GPUs, die für die Parallelverarbeitung konzipiert sind.
Je größer und komplexer das Modell ist, desto länger und energieaufwändiger ist das Training. Forscher streben danach, effizientere Systeme zu schaffen, aber der Wettlauf um Leistung führt oft dazu, dass die Größe auf Kosten der Effizienz priorisiert wird.
Techniken wie Transfer Learning ermöglichen die Wiederverwendung vortrainierter Modelle für neue Aufgaben, was die Notwendigkeit verringert, das Training von Grund auf neu zu beginnen. Dies spart Energie, löst das Problem aber nicht vollständig.
Die Optimierung von Algorithmen und der Einsatz energieeffizienterer Hardware sind vielversprechende Ansätze, um das Training in Zukunft nachhaltiger zu gestalten.