MENU
Rechenzentren

Mit Daten heizen

Wie Rechenzentren energieeffizienter werden können.

02. September 2021

Zoom am Tag, Netflix zur Nacht – auf dem Höhepunkt der Corona-Krise führten fast alle unsere Wege durchs Netz. Aber auch abseits der Ausnahmesituation ist unser Datenbedarf in den vergangenen Jahren kontinuierlich gewachsen. Und damit auch der Stromhunger der Rechenzentren, die uns mit ihnen versorgen – mit Folgen für die Umwelt. Wollen wir unsere Internet-Gewohnheiten künftig nicht radikal einschränken, müssen die globalen Datencenter energieeffizienter werden. 

Streamen, shoppen, surfen, zocken – immer größere Datenmengen rasen täglich durch das Netz. Gerade der Durchbruch der Streaming-Dienste hat den Pegel der Datenflut deutlich angehoben. Deutsche Rechenzentren verbrauchten 2020 rund 16 Milliarden Kilowattstunden Strom – mehr als eine Großstadt wie Berlin in einem ganzen Jahr. In Frankfurt am Main haben sich im vergangenen Jahrzehnt die Kapazitäten der Serverfarmen vervierfacht – und längst den Flughafen als größten Stromfresser der Finanzmetropole abgelöst.

Eine Tendenz, die sich durch das Internet der Dinge, KI und 5G noch mal deutlich verstärken dürfte. Heute sind Rechenzentren für 3 Prozent des weltweiten Stromverbrauchs verantwortlich, 2040 dürften es Prognosen zufolge 10 bis 15 Prozent sein – mit entsprechenden Konsequenzen für das globale Klima.

Der Like, der aus der Kälte kam

Zwar hat sich in den vergangenen Jahren auch die Energieeffizienz der Rechenzentren deutlich verbessert. Doch das kann den wachsenden Datenhunger nicht ausgleichen. Gerade die Kühlung der Server frisst viel Energie. Rechenzentren werden deshalb zunehmend in kälteren Regionen gebaut. Ein Beispiel ist Facebooks schwedisches Datencenter in Luleå, am Rande des Polarkreises. Die Jahresdurchschnittstemperatur liegt hier bei 1,3 Grad – im deutschen Datenmekka Frankfurt sind es 8,4 Grad. Und da in Luleå das Thermometer selbst im Sommer nur gelegentlich über 16 Grad klettert, wird entsprechend deutlich weniger Energie als üblich benötigt, um die heißen Server zu kühlen. Den erforderlichen Strom bezieht der Social-Media-Konzern aus Wasserkraft, die in Schweden günstig zu haben ist. Gute Gründe, um das Gros der weltweiten Serverfarmen am Polarkreis aufzuschlagen? „Energietechnisch ist das natürlich eine gute Sache, die sich aber nur Internetriesen wie Facebook oder Google leisten können“, dämpft Marc Wilkens von TÜViT die Erwartungen. Denn Datenkabel über Hunderte Kilometer zu verlegen kostet viel Geld, so der Experte für effiziente Rechenzentren.

Auch sogenannte Colocation-Rechenzentren dürften in den kommenden Jahren am Polarkreis kaum wie Pilze aus dem Boden schießen. Firmen oder Behörden können sich hier mit ihren Servern einmieten – die Betreiber stellen den Platz und kümmern sich um Kühlung, Strom und IT-Infrastruktur. „Unternehmen suchen unserer Erfahrung nach die Nähe zu ihren Servern – auch um die Signalwege zur Datensynchronisation kurz zu halten“, so Wilkens. Mit steigender Entfernung wächst die Nervosität, den unmittelbaren Zugriff auf die eigenen Datenschätze zu verlieren. Deshalb sei es für Colocation-Betreiber schon in Deutschland schwierig, ein Rechenzentrum an weiter abgelegenen Orten aufzuziehen.

Daten aus der Tiefe

Alternativ könnte man Rechenzentren auch gleich im Meer versenken, wie es Microsoft versuchsweise im „Project Natick“ getan hat – mit vielversprechenden Ergebnissen, wie der Tech-Riese betont. Wartungsfreundlich ist diese Methode jedoch nicht. Würden defekte Unterseemodule einfach durch neue ausgetauscht, ginge damit auch die Ressourceneffizienz über Bord, erläutert Wilkens. Außerdem ist noch ungeklärt, inwieweit die Abwärme der Rechner die Flora und Fauna am Meeresgrund beeinflusst.

Ohnehin sieht der Green-IT-Experte wenige sinnvolle Anwendungsmöglichkeiten für submarine Server. Zwar sind sie unter Normalnull vor Unbefugten grundsätzlich gut geschützt. Angreiferinnen und Angreifer müssten schon im U-Boot abtauchen, um die Datenschätze anzuzapfen. Aber ein möglicher Wassereinbruch ins Rechenzentrum zähle schon an Land zu den größten Sorgen der Betreiber, so Wilkens. Kaum jemand würde seine sensiblen Daten im Meer diesem Risiko aussetzen. Denkbar wäre der Untersee-Server etwa für Cloud-Dienste. Denn die laufen auf Standardservern: Einmal an Land konfiguriert, müsste man unter Wasser nicht noch mal nachjustieren. „Allerdings werden solche Anwendungen heute ohnehin schon sehr energieeffizient betrieben – insofern rechnet sich der Aufwand vermutlich nicht.“

Abwärme lässt Algen wachsen

Doch auch an Land gibt es Mittel und Wege, um etwa die Abwärme der Server sinnvoll zu nutzen. Im Schweizer Uitikon beispielsweise sorgt sie seit 2008 für warmes Wasser im örtlichen Hallenbad. In Schweden speisen schon heute 30 Rechenzentren ihre Abwärme ins Fernwärmenetz ein. Bis 2035 soll die Abwärme der Serverfarmen ein Zehntel des Heizbedarfs von Stockholm decken.

Einzelne Leuchtturmprojekte gibt es bereits auch in Deutschland. In der Hamburger Zentrale von Vattenfall werden rund 50.000 Quadratmeter Bürofläche mit der Abwärme der Server geheizt. Ein Rechenzentrum von VW Financial Services in Braunschweig macht im Winter die 400 Wohnungen eines angrenzenden Neubaugebiets warm. Im nordfriesischen Enge-Sande wiederum lässt ein Start-up mit der Abwärme Algen auf dem Dach seiner Serverfarm wachsen. 

Für viele deutsche Betreiberinnen und Betreiber von Rechenzentren hat die Nutzung der Abwärme viel Potenzial – gilt den meisten aber noch als zu unwirtschaftlich, wie eine Umfrage des „Netzwerks energieeffiziente Rechenzentren“ (NeRZ) ergab. Das Problem: Die Temperatur der Abwärme über die herkömmliche Luftkühlung ist in der Regel zu gering, um sie unmittelbar für die Warmwasseraufbereitung oder in einem Heizsystem zu verwenden. Daher muss sie etwa mit Wärmepumpen auf das notwendige Maß gehoben werden. Das erfordert seinerseits Strom – und der ist in Deutschland bekanntlich nicht billig. Geht es nach dem Branchenverband Bitkom, sollten Wärmepumpen daher künftig von der EEG-Umlage befreit werden.

Eine Förderung der Abwärmenutzung sei zwar grundsätzlich denkbar, so Marc Wilkens. Aber eine pauschale EEG-Befreiung für Wärmepumpen führe am Ziel vorbei. So könne eine Steuererleichterung für Wärmepumpen auch dazu genutzt werden, um die eigenen Kühlkosten zu senken – ohne dass tatsächlich die Umwelt gewinnt. „Abwärmenutzung bringt nicht per se einen Effizienzvorteil, insbesondere wenn Angebot und Nachfrage nicht gut zusammenpassen. Daher muss man sich schon genau anschauen, wie und wo diese Abwärme eingesetzt werden soll“, so Wilkens.

Das grundsätzliche Problem: Den größten Strombedarf haben die Kühlungssysteme im Sommer, wenn es auch auf den Platinen besonders heiß wird. Aber dann haben Verbraucherinnen und Verbraucher sowie Energieversorger naturgemäß kaum Bedarf an weiterer Wärme. Und im Winter können die Datencenter bereits sehr effizient gekühlt werden, so Wilkens. Abwärmenutzung macht aus Sicht des Experten daher am meisten Sinn, wenn sie, wie in Schweden, über ein gut ausgebautes Nahwärmenetz ohne großen zusätzlichen Energieaufwand verteilt wird – immer dann, wenn sie auf kurzem Wege an Orte geleitet werden kann, die sie das ganze Jahr über gebrauchen können: Schwimmbäder, Algenfarmen oder Industrieanlagen, die Wärme für ihre Produktionsprozesse benötigen.

„Für viele deutsche Betreiberinnen und Betreiber von Rechenzentren hat die Nutzung der Abwärme viel Potenzial – gilt den meisten aber noch als zu unwirtschaftlich.“

Marc Wilkens, Prüfer für Rechenzentren bei TÜViT

Kühlendes Nass im Serverraum

Ein großes Potenzial bietet aus Sicht vieler Fachleute auch die Umstellung heutiger Kühlsysteme. Kühlt man die Server künftig mit Wasser, statt wie heute meist mit Luft, ließe sich die Abwärme deutlich effizienter nutzen. Während bei der Luftkühlung Temperaturen zwischen 18 und 40 Grad entstehen, sind es bei der Wasserkühlung 50 bis 60 Grad. Zusätzliche Energiekosten durch Wärmepumpen würden entfallen oder deutlich verringert. Und da Wasser auch erheblich besser kühlt als Luft, wären die Server zugleich auch für das rechenleistungshungrige KI-Zeitalter gut gerüstet.

Tatsächlich wird die Wasserkühlung in den heiß laufenden Hochleistungsrechnern von Universitäten und Forschungszentren zunehmend zum Standard. Auch ein erstes Rechenzentrum in Frankfurt setzt seit 2018 auf das kühlende Nass. Im Hochhaus Eurotheum – einem ehemaligen Sitz der Europäischen Zentralbank – wird mit der Abwärme ein Teil des Hauses nebst Hotel und Gastronomie beheizt und mit Warmwasser versorgt. Wird im Sommer weniger davon gebraucht, wird die Wärme über Lüftungsanlagen nach draußen abgeleitet. Der Betreiber Cloud&Heat spart nach eigenen Angaben so jährlich 95.000 Euro für die Kühlung, das Hochhaus 65.000 Euro an Heizkosten. Nicht zuletzt werden den Kalkulationen zufolge pro Jahr 557 Tonnen weniger CO2 in die Atmosphäre entlassen.  

Wegen der speziellen Hardware können die Kunden bislang aber nicht ihre eigenen Serverschränke im Rechenzentrum aufstellen, wie es in Colocation-Centern eigentlich üblich ist. Kundinnen und Kunden sind nach Angaben des Anbieters daher aktuell kleine und mittelgroße Firmen und Forschungsunternehmen. Konzerne sind bislang nicht vertreten. 

Warum das Wasser bislang noch spärlich fließt

In der Breite ist die innovative Kühltechnologie noch längst nicht angekommen. Erklären lässt sich das einerseits mit der Scheu mancher Betreiberinnen und Betreiber, mit Wasser den bisherigen Angstgegner im Serverraum zuzulassen – selbst wenn es sicher in kleinen Rohrleitungen über die heißen Platinen fließt. Andererseits sei auch das Angebot an entsprechenden Servern bislang noch übersichtlich, erläutert Marc Wilkens. Während sich Netzgrößen wie Google, Facebook und Microsoft ihre Serverfarmen maßschneidern, müssen kleinere Betreiber, Mittelständler oder andere Unternehmen auf das zurückgreifen, was auf dem Markt ist. „Und gerade die großen Hersteller wie Dell oder HP haben bislang kaum entsprechende Server im Angebot“, so der Green-IT-Experte. Deutsche Hersteller wie Thomas-Krenn bieten zwar mittlerweile auch Standardserver mit Wasser-Direktkühlung an. „Aber die betreiben natürlich keine Großproduktion. Insofern muss sich noch zeigen, ob mit einer steigenden Nachfrage auch das Angebot wächst“, so Wilkens.

Verpflichtende Grenzwerte, wie energieeffizient Rechenzentren mindestens sein müssen, sind von der aktuellen Bundesregierung nicht geplant.  Wenn sie entsprechende Auflagen zur Nachhaltigkeit erfüllen, können sie aber seit 2011 mit dem Umweltzeichen „Blauer Engel“ ausgezeichnet werden – seit 2020 gibt es den auch für Colocation-Rechenzentren. Den Anfang machte im Juli ein solches Rechenzentrum in Hamburg. Betreiber akquinet setzt hier unter anderem auch auf Abwärme, mit der eine benachbarte Sporthalle beheizt wird. Das von TÜViT entwickelte Prüfschema TSE.STANDARD schlägt in dieselbe Kerbe wie der „Blaue Engel“. „Wir ermitteln damit die Effizienz eines Rechenzentrums und können den Betreibern dabei helfen, sie weiter zu verbessern“, erklärt Wilkens, der die Methodik mitentwickelt hat.

Dass akquinet in der Lage war, die strengen Auflagen zu erfüllen, könnte andere motivieren, dem Beispiel zu folgen, zeigt sich der Experte optimistisch: „Nicht zuletzt weil Colocation-Rechenzentren mittlerweile bestimmte Vorgaben erfüllen müssen, um für die Server von Bundesministerien und öffentlicher Verwaltung infrage zu kommen.“ Neben verbesserten Kühlsystemen sieht der Experte noch einen weiteren Hebel für mehr Effizienz: eine verbesserte Planung. Noch würden gerade Rechenzentren mittlerer Größe oft auf Kapazitäten ausgelegt, die später gar nicht gebraucht werden. Steht dann der halbe Serverraum leer, kann die Kühltechnik nicht effizient erledigen, wozu sie eigentlich da ist:  mit möglichst geringem Stromeinsatz erhitzte Platinen abzukühlen.

 

ZUR PERSON

Marc Wilkens ist Prüfer für Rechenzentren bei TÜViT. Seit seinem Studium beschäftigt sich der diplomierte Wirtschaftsingenieur mit der Frage, wie die Effizienz von Rechenzentren erfasst und verbessert werden kann. An der Überarbeitung des neuen Kriterienkatalogs TSE.STANDARD von TÜViT war er daher maßgeblich beteiligt. Mit einer Prüfung und Zertifizierung können Betreiber die Effizienz und Nachhaltigkeit ihres Rechenzentrums bestimmen und sukzessive verbessern.

Newsletter

Nichts mehr verpassen: Jetzt kostenlosen #explore-Newsletter abonnieren

Entdeckt, erklärt, erzählt - Der Podcast

Alle zwei Wochen eine neue Folge. Entdeckt, erklärt, erzählt ist der Podcast von #explore by TÜV NORD. In jeder Folge haben wir einen Gast, der uns spannende Einblicke in Zukunftsthemen und Trends gibt sowie Innovationen einordnet. Den Podcast gibt's auf allen gängigen Podcast-Apps - einfach kostenfrei abonnieren!

 

Alle Podcast-Folgen in der Übersicht