Am 7. Februar 2025 gab das chinesische Unternehmen DeepSeek, ein innovativer Anbieter im Bereich künstlicher Intelligenz, die Einführung eines neuen Chatbots bekannt. Dieser erreicht eine Leistung, die mit Modellen wie ChatGPT vergleichbar ist, jedoch mit deutlich geringeren Rechenressourcen. Dies wirft jedoch Fragen zum Energieverbrauch von KI auf, da eine erhöhte Effizienz potenziell zu einem größeren Gesamtverbrauch führen könnte, wie Washington Post berichtet.

Der Senior Scientist Vijay Gadepally vom MIT Lincoln Laboratory betont, dass trotz dieser Fortschritte die Energiekosten für KI weiterhin ein zentrales Problem darstellen. Ein möglicher Lösungsansatz für Technologieunternehmen besteht darin, saubere Energiequellen zu nutzen und die lokalen Stromnetze zu überwachen, um den Energieverbrauch in Zeiten hoher fossiler Brennstoffnutzung zu reduzieren. Führende Unternehmen wie Google und Microsoft experimentieren bereits mit solchen Ansätzen.

Energieverbrauch von Rechenzentren

Die Rechenzentren, die KI-Algorithmen trainieren, benötigen mittlerweile so viel Strom wie kleine Städte. Ihre Energieverbrauch wächst weiter, obwohl die Effizienz von KI-Systemen gestiegen ist. Microsofts CEO, Satya Nadella, hat die Anwendung des Jevons-Paradoxons hervorgehoben, welches besagt, dass Effizienzgewinne nicht notwendigerweise zu einem reduzierten Gesamtverbrauch führen. Stattdessen könnte die Energienutzung von KI weiter ansteigen, während diese Technologie effizienter und zugänglicher wird.

Die tatsächlichen Zahlen sind alarmierend. Im Jahr 2023 wiesen Rechenzentren in den USA mehr als 4 % des gesamten Stromverbrauchs auf, und dieser Anteil soll steigen. Laut Tagesschau wird der Energieverbrauch von KI-Rechenzentren in Europa bis 2030 auf mehr als 150 Terawattstunden ansteigen, was fast einer Verdopplung seit dem aktuellen Verbrauch entspricht.

Herausforderungen und Lösungsansätze

Die Herausforderungen sind vielfältig und umfassen nicht nur den Strombedarf, sondern auch die erheblichen Treibhausgasemissionen, die durch den Betrieb dieser Rechenzentren verursacht werden. So berichtete Google von einem Anstieg seiner Emissionen um 13 % im vergangenen Jahr, was zu über 14,3 Millionen Tonnen CO2 führte. Der Fokus auf erneuerbare Energien wird von weiteren Maßnahmen begleitet; beispielsweise unterzeichnete Google einen Vertrag mit Kairos Power zur Beschaffung modularer Atomreaktoren.

Um den Energieverbrauch zu optimieren, haben mehrere Unternehmen Strategien in Betracht gezogen, die auf der Anpassung der Rechenzentrumsoperationen basieren, je nach den verfügbaren Energiequellen. Dies wird umso relevanter, da laut der Studie von Gadepally im Jahr 2023 ein umweltfreundlicherer Ansatz zur Anwendung von KI signifikante Einsparungen bei den Kohlenstoffemissionen bringen könnte, ohne die Leistung entscheidend zu beeinträchtigen. Dabei muss jedoch die Herausforderung gemeistert werden, KI-Nutzer und Unternehmen von den möglichen Leistungseinbußen für die Reduzierung des Kohlenstoffverbrauchs zu überzeugen, wie in der arXiv Studie diskutiert wird.

Die Debatte über die Umweltauswirkungen von KI ist komplex und umfasst sowohl die direkte Energienutzung als auch die indirekten Effekte, die durch die Rebound-Effekte entstehen können. Diese Effekte können dazu führen, dass durch Effizienzgewinne im Endeffekt mehr Ressourcen verbraucht werden, was sowohl unter Umwelt- als auch unter wirtschaftlichen Gesichtspunkten problematisch ist.

Zusammenfassend lässt sich sagen, dass die Entwicklung von KI-Technologien nicht nur die Effizienz steigern, sondern auch zu einem verantwortungsbewussten Umgang mit Energie führen muss. Unternehmen sind gefordert, transparente Praktiken zu etablieren und robuste Lebenszyklusanalysen durchzuführen, um sicherzustellen, dass diese Technologien in einer Weise zur Bekämpfung des Klimawandels beitragen, die nachhaltig und zukunftsorientiert ist.