KI: Neue Entwicklungen könnten den Energiebedarf endlich drastisch senken


Lösungen für den Ressourcenverbrauch

Digitalisierung & Technologie, 18.11.2024

Der Entwicklung der KI scheinen zumindest funktional kaum Grenzen gesetzt zu sein. Der hohe Energiebedarf ist jedoch besorgniserregend und löst Kontroversen aus. Einige KI-Anbieter denken sogar über den Bau von Atomkraftwerken nach. Neue Technologien könnten das noch verhindern, denn sie wollen den Energieverbrauch von KI-Systemen radikal senken.

Server file

Der enorme Ressourcenverbrauch von KI-Systemen ist einer der großen Kritikpunkte an ChatGPT & Co. Besonders beim Training der verschiedenen Large Language Models (LLMs) verbrauchen die auf Hochleistung getrimmten Rechenzentren Unmengen an Strom und durch die Abwärme auch viel Wasser zur Kühlung. Gerade der Stromverbrauch kommt zur Unzeit.

Denn die globale Klimakrise erfordert eine Dekarbonisierung des weltweiten Energiesektors. Doch die Umstellung auf erneuerbare Energien ist ein langfristiger Prozess, der noch einige Jahre in Anspruch nehmen wird. Aktuell ist Strom daher in vielen Ländern ein knappes Gut. Der Boom von KI-Systemen verschärft mit seinem Ressourcenhunger die angespannte Energieversorgung zusätzlich.

Die Internationale Energieagentur (IEA) hat längst Alarm geschlagen: Bereits 2022 verbrauchten Rechenzentren weltweit rund 460 Terawattstunden Strom, obwohl OpenAI ChatGPT erst im November 2022 der Öffentlichkeit zugänglich gemacht hat. Wie sich der Strombedarf seitdem entwickelt hat, lässt sich nur schätzen. Die IEA geht davon aus, dass sich der Energieverbrauch bis 2026 verdoppeln wird.

Die großen KI-Anbieter wie Google oder Microsoft hingegen kennen den hohen Energiebedarf aus eigener Erfahrung und entwickeln eigene Pläne. Da es in den USA beispielsweise in der Data Center Alley bereits zu ersten Engpässen kommt, weil der Ausbau der erneuerbaren Energien nicht mit dem steigenden Bedarf mithalten kann, planen die IT-Giganten den Bau eigener Atomkraftwerke.

Google will Mini-Atomkraftwerke (Small Modular Reactors, SMR) bauen, um trotz des steigenden Energiebedarfs die selbst gesteckten Klimaziele nicht zu gefährden. Konkurrent Microsoft wagt sogar einen Schritt, der dem eigenen Image schaden könnte: Ein Reaktor des stillgelegten Atomkraftwerks Three Mile Island“ soll wieder hochgefahren werden. Zur Erinnerung: In dieser Anlage spielte sich 1979 der schwerwiegendste Nuklear-Zwischenfall in der kommerziellen Atomwirtschaft der USA ab.

Allein diese beiden Beispiele zeigen, wie wichtig es ist, KI-Systeme nicht ausschließlich immer leistungsfähiger zu machen, sondern vor allem effizienter zu machen.

Data Center Alley

Was das Silicon Valley rund um San Francisco für die IT- und Hightech-Industrie ist, ist die Data Center Alley in Virginia für Rechenzentren. Nirgendwo auf der Welt ist die Dichte an Rechenzentren höher als an der Ostküste der USA. Der Grund ist historisch: Drei der ersten fünf Internetknoten entstanden Anfang der 1990er Jahre in Virginia. Sie dienen als Austauschpunkte für den Datentransfer. Und weil es in ihrer Umgebung einen sehr schnellen und vergleichsweise günstigen Zugang zum Internet gibt, wurden sie zu Magneten für IT-Infrastrukturunternehmen.

Neben Internet Service Providern haben sich dort auch viele Betreiber von Rechenzentren angesiedelt. Mit Cloud Computing hat sich die Kapazität der Rechenzentren in der Data Center Alley bereits in kurzer Zeit (2018–2021) verdoppelt. KI-Systeme haben den Bedarf noch einmal deutlich erhöht.

Neue Technologien könnten die KI retten

Und Effizienzpotenziale sind durchaus vorhanden. Zwei Entwicklungen in unterschiedlichen Bereichen geben Anlass zur Hoffnung, dass wir auch in Zukunft KI-Systeme nutzen können, ohne dafür neue Atomkraftwerke bauen zu müssen.

Entwicklung neuer Hardware

KI-Hardware verbraucht sehr viel Energie, da vereinfacht gesagt ein ständiger Austausch zwischen Verarbeitungs- und Speicherkomponenten stattfindet. Daten werden von einem Speicher zur Verarbeitung an die Recheneinheit übertragen und anschließend wieder zurückgeschickt.

Forscher der University of Minnesota Twin Cities machen diesen Austausch nun mit einer neuen Entwicklung überflüssig. Mit der Computational Random-Access Memory (CRAM) genannten Hardware verschmelzen die zuvor getrennten Komponenten zu einer einzigen. Oder anders ausgedrückt: Die Verarbeitung der Daten findet direkt im Speicher statt.

In wissenschaftlichen Tests erwies sich die CRAM-Technologie als 2.500 mal energieeffizienter und 1.700 mal schneller als ein herkömmliches System mit getrennten Komponenten.

So ist der Stand der Entwicklung: Die Forscher stehen bereits in Kontakt mit führenden Unternehmen der Halbleiterindustrie, um die CRAM-Technologie im großen Maßstab zu entwickeln und marktfähig zu machen. Der Entwicklungsstand ist bereits weit fortgeschritten, denn die Technologie ist das Ergebnis von mehr als 20 Jahren Forschung und interdisziplinärer Zusammenarbeit.

Entwicklung neuer Software

In Sprachmodellen und Anwendungen der Künstlichen Intelligenz verwenden die Algorithmen sehr rechenintensive Gleitkommaoperationen. Diese kennt man bisher auch als Maß für die Leistungsfähigkeit von Supercomputern, die in FLOPS (Floating Point Operations Per Second) angegeben wird. Die Forscher von BitEnergy AI verwenden dagegen in ihrem Algorithmus „Linear-complexity multiplication“ (L-Mul) einfachere ganzzahlige Additionen. Mit diesem mathematischen Verfahren wollen die Forscher in Experimenten eine Energieeinsparung von 95 Prozent erreicht haben.

So ist der Stand der Entwicklung: Die Forschungsarbeit zum L-Mul-Algorithmus wurde bisher nur als Preprint veröffentlicht. Eine reguläre Publikation in einer wissenschaftlichen Fachzeitschrift, die eine fachliche Überprüfung der Ergebnisse voraussetzt, steht noch aus. Zudem wird für die Marktreife noch spezielle Hardware benötigt, die das Potenzial von L-Mul voll ausschöpfen kann.

Fazit: KI-Anbieter sollten in Effizienz investieren

Der globale Trend zu mehr Nachhaltigkeit wird sich im Zuge des Klimawandels fortsetzen. Daran wird auch der große Hype um künstliche Intelligenz nichts ändern. Im Gegenteil: Die besten KI-Systeme sind nutzlos, wenn das Klima kippt.

Schon heute ist Energie in vielen Ländern knapp, energieintensive Industrien stehen auf dem Prüfstand. Noch haben sie es selbst in der Hand, durch mehr Investitionen in Effizienz zukunftsfähig und gleichzeitig nachhaltig zu werden. So stellt sich die Frage:

Was ließe sich mit den Ressourcen, die für den Bau von Atomkraftwerken eingeplant sind, alles erreichen, wenn sie stattdessen in KI-Effizienztechnologien investiert würden?

Text: Falk Hedemann

Ihre Meinung

Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: next@ergo.de

Ähnliche Beiträge

Digitalisierung & Technologie 09.06.2021

Warum eine KI Regeln braucht

Algorithmen durchdringen mittlerweile unseren digitalen Alltag mehr, als wir oft vermuten: Von der Risikoabschätzung für eine Kreditvergabe, über Produktempfehlungen auf E-Commerce-Seiten, bis zur Bilderoptimierung bei Adobe Photoshop – automatisierte Entscheidungshilfen analysieren uns, geben uns Vorschläge und lenken uns damit auch subtil. Aber tun sie das ganz ohne Hintergedanken und wer entscheidet über sie?

Digitalisierung & Technologie 08.11.2021

„KI und Ethik – daraus kann Tolles entstehen“

Wie steht es um die ethischen Aspekte rund um den Einsatz von Künstlicher Intelligenz? Mit diesem Thema befasst sich ein Podcast der Ludwigs-Maximilians-Universität in München. Im //next-Interview: Dorothea Winter, Leiterin des „PhiPod“-Redaktionsteams.

Digitalisierung & Technologie 25.05.2022

KI-Initiativen scheitern häufiger als viele meinen

Warum tun sich viele Unternehmen so schwer, Algorithmen an den Start zu bringen, die wirklich etwas bewirken? Die Umsetzung von KI sei längst nicht so erfolgreich, wie viele meinen, schreibt ERGO CDO Mark Klein in seinem aktuellen Blog für //next.