Massiver Speicherausbau im Server ändert die Energiebilanz

22. Februar 2011

Moderne DRAM-Technologie und der zugehörige Fertigungsprozess sind die bestimmenden Faktoren für den Energieverbrauch von Arbeitsspeichermodulen in Servern. Soll ein Server als Plattform für die Virtualisierung herhalten, ist eine hohe DRAM-Kapazität gefragt. Damit wird der Leistungsbedarf des Arbeitsspeichers zu einem dominierenden Faktor in der Energiebilanz eines Servers.

Wer seine Industrie-Standard-Server besser auslasten möchte kommt um den Einsatz der Server-Virtualisierung wie etwa mit dem Hyper-V nicht herum. Wo früher ein Server mit einer Applikation und einem oftmals nur einstelligen Ausnutzungsgrad für die CPU-Rechenleistung vor sich hinarbeitete, sind nun 20 und mehr virtuelle Maschinen über die Hypervisor-Virtualisierung auf einer physikalischen Server-Hardware im Einsatz.

Anzeige
CS espresso series

Doch bei der Virtualisierung von Servern gibt es Flaschenhälse zu vermeiden: Damit die bestehenden Prozessor-Ressourcen maximal ausgenutzt werden, sind die Systembereiche des Arbeitsspeichers aber auch das für die  Ein-/Ausgabe zuständige Subsystem gefordert. Anders ausgedrückt: Nur wenn entsprechend viel DRAM-Kapazität im System zur Verfügung steht, lassen sich 20 und mehr virtuelle Maschinen auf einem Server betreiben.

Das zieht eine Änderung im DRAM-Ausbau der Industrie-Standard-Server nach sich: Ohne Server-Virtualisierung waren Systeme mit durchschnittlich 16 GByte Arbeitsspeicher für viele Einsatzfelder gut gerüstet. Daher entfielen damals weniger als 15 Prozent des Energieverbrauchs eines Servers auf den Arbeitsspeicher. Ganz anders dagegen heutige Systeme, die sich im Bereich des Speichermaximalausbaus bewegen: Kommen 192 GByte an Arbeitsspeicher zum Einsatz, entfallen fast 60 Prozent des Energieverbrauchs des Servers für den Arbeitsspeicher.

Aktuelle DRAM-Speicherchips arbeiten in den Industrie-Standard-Servern mit dem Verfahren Double Date Rate (DDR). Dabei reduziert sich über die verschiedenen DDR-Generationen die nötige Versorgungsspannung für die Chips und damit auch der Energieverbrauch. Für die erste Generation waren noch 2,5 Volt (V) nötig, bei DDR-2 nur mehr 1,8 V, mittlerweile ist DDR-3 im Einsatz mit 1,5 V. Noch im Jahr 2011 soll die Versorgungsspannung auf 1,35 V sinken.

Daher gilt der Umstieg von DDR-2 auf DDR-3 als ein wichtiger Schritt hin zu geringerem Stromverbrauch. Dabei kann sich der Energieverbrauch bereits um 35 Prozent reduzieren, wenn man von DDR-2 auf DDR-3 umsteigt. Daher sollte man bei Neuinvestitionen in seine Server-Hardware darauf achten, dass möglichst schon DDR-3-Chips eingesetzt werden können.

Doch die Fortschritte in der Fertigungs-Prozesstechnologie – sprich die Verringerung der Strukturbreiten auf den Bausteinen – haben ebenfalls eine positive Auswirkung auf die Energieaufnahme im Server. Für DDR-3 wurde bei 60 Nanometer (nm) Strukturbreite (das war Stand der Technik vor zwei Jahren) und bei einem Ausbau von 48 GByte eine Leistungsaufnahme in Höhe von 66 Watt gemessen.

Dieser Wert reduziert sich bei 50 nm bereits um 25 Prozent. Erste Hersteller sind mittlerweile in der Lage, DRAMs in 40-nm-Technologie zu fabrizieren. Ein derartiger Umstieg reduziert die Leistungsaufnahme um weitere 18 Prozent. Damit fallen nur noch etwa 41 Watt bei einem Speicherausbau von 48 GByte an. Und der nächste Fortschritt kommt noch in 2011: Bei 30 nm erwartet man eine weitere Reduzierung auf dann nur mehr 35 Watt (bei 48 GByte Speicherausbau).

Die Speicherdichte auf den Modulen bringt auch Verbesserungen mit sich. Der Umstieg von der 1-GBit-Basis auf Module mit 2-GBit-Basis reduziert die Leistungsaufnahme von 41 Watt auf 34 Watt (alles Werte bei 48 GByte in einem Server), da sich weniger Bausteine auf einem Modul befinden. Der Einsatz der nächsten Technik, die 4-GBit-basierten Module, lässt dann die Leistungsaufnahme wohl auf 19 Watt zurück gehen.

Diese Ergebnisse lassen bereits beim Betrieb von wenigen Servern Einsparungen erwarten. Doch wer komplette Rechenzentren zu betreiben hat, der kann sich enorme Summen sparen. Dazu haben einige Hersteller zusammen eine Testumgebung installiert. Microsoft mit seiner Virtualisierungs-Technologie, Fujitsu Technology Solutions mit den Servern, von Samsung stammen die Speichermodule, und Intel war mit von der Partie und hat Know-how zu den Prozessoren mit eingebracht.

Die Messungen zum Energieverbrauch hat der TÜV Rheinland ausgeführt. Mehr zu diesem Thema ist auf der Roadshow Rechenzentren und Infrastruktur zu erfahren, die der heise Verlag auch 2011 an vier Orten in Deutschland veranstaltet.

Rainer Huttenloher

Lesen Sie auch