SSDs als Turbo fürs Datacenter

16. Januar 2020

Solid State Drives sind „die Speicherlösung“, um Rechenzentren hinsichtlich Leistung und Zuverlässigkeit zu optimieren. Dabei gilt es fünf Tipps zu beachten, damit IT-Verantwortliche das geeignete Laufwerk für ihre Bedürfnisse identifizieren.

Die Digitalisierung verändert das Rechenzentrum: In immer mehr Bereichen der IT müssen größere Datenmengen in immer kürzerer Zeit verarbeitet werden. Entsprechend gestiegen sind die Anforderungen an die Speichersysteme, klassische Hard Disk Drives (HDDs) sind diesen nicht länger gewachsen. Um die Leistung, Effizenz und Zuverlässigkeit in Datacentern zu steigern und gleichzeitig die Betriebskosten zu senken, braucht es optimierte Lösungen.

Anzeige
corp x optA

Solid State Drives (SSDs) werden diesem Bedarf gerecht, müssen aber für den Enterprise-Einsatz einige zusätzliche Vorrausetzungen erfüllen. Christian Marhöfer, Regional Director DACH bei Kingston Technology gibt einen Überblick, welche fünf Aspekte es bei der Wahl der richtigen SSD und der Einrichtung besonders zu beachten gilt.

Bedürfnisse identifizieren und eine bewusste Entscheidung treffen

Bei der Wahl einer SSD-Lösung dürfen Rechenzentrumsbetreiber die Unterschiede zwischen den SSD-Klassen nicht vernachlässigen. Diese entscheiden am Ende darüber, wie effizient Fehler reduziert und die Laufwerke den anspruchsvolleren Workloads gerecht werden.

Wer diese Unterschiede versteht und im Vorfeld die unternehmenseigenen Bedürfnisse klar identifiziert, kann seine Storage-Architektur mit Blick auf Leistung, Zuverlässigkeit und Lebensdauer deutlich optimieren. Wichtige Fragen, die vor der Entscheidung für eine neue Speicherlösung durchdacht werden sollten, sind:

  • Wie sieht der Speicherplatzbedarf für die nächsten fünf bis zehn Jahre aus?
  • Welchen Leistungs- und Schreiblastanforderungen muss die SSD gerecht werden? (Welche IOPS-Zahlen müssen erreicht werden? Wieviel GB sollen pro Tag auf die SSD geschrieben werden?)
  • Wird eine erweiterte Power Loss Protection (PLP) benötigt?
  • Ist die Anwendungsschicht für SATA und NVMe-Standards optimiert?
  • Ist die Netzwerkkonnektivität bei Zugriff über das Unternehmensnetzwerk in der Lage, die geringe Latenz und die hohen IOPS der SSD-Technologie voll auszuschöpfen, oder gibt es an dieser Stelle einen Engpass?

Der Einsatz bestimmt die Mittel

SSD ist nicht gleich SSD, soviel ist klar. Enterprise-SSDs unterscheiden sich in verschiedener Hinsicht von ihren Consumer-Pendants.

Sie sind auf den Einsatz in einer Multi-Channel-Architektur und den Parallelzugriff vom SSD-Controller auf die NAND-Chips optimiert und erreichen sowohl bei sequentiellen, als auch bei den für den professionellen Einsatz entscheidenden zufälligen Abfragen, entsprechend höhere Lese- und Schreibgeschwindigkeiten.

Zuverlässigkeit über alles

Ein entscheidender Faktor bei der Wahl der richtigen Speicherlösungen für Rechenzentren sollte ganz klar die Zuverlässigkeit sein. Denn NAND-Flashzellen verschleißen durch wiederholte Schreibvorgänge und produzieren dadurch Fehler. SSDs können diese sogenannten Bitfehler durch entsprechende Fehlerkorrekturen zwar ausgleichen, aber: nicht jede Lösung bewerkstelligt das auf einem gleich guten Niveau.

Die entscheidende Maßeinheit, auf die es in diesem Zusammenhang zu achten gilt, ist die „Uncorrectable Bit Error Ratio“ (UBER), die eng mit der JEDEC-Testmethode für SSDs verknüpft ist. Während Consumer-SSDs sich einen Bitfehler pro einer Billiarde Bits erlauben dürfen, darf bei Enterprise-SSDs ein nicht behebbarer Bitfehler nur alle zehn Billiarden Bits auftreten.

Eine Lösung wählen, die einen langen Atem beweist

Server-fähige Laufwerke müssen meist rund um die Uhr eine Vielzahl an Schreib- und Lesezugriffen bewältigen. Die Folge: die angesprochenen Bitfehler häufen sich.

Bei Enterprise-SSD-Controllern kommt deshalb ein relativ komplexer Satz an Managementtechniken zum Einsatz, die einen schwachen Block auf eine neue physische Adresse im NAND-Flashspeicher-Array verschieben. Die SSD darf dabei jedoch nicht zu viel Geschwindigkeit einbüßen, weshalb Enterprise-SSDs für niedrige Latenzzeiten optimiert sind und eine höhere, stabilere Leistung über einen längeren Zeitraum liefern können.

Auf umfassenden Schutz vor Powerfails achten

Insbesondere im Enterprise-Umfeld müssen Unternehmen auf potenzielle Risiken durch plötzliche Stromausfälle achten. Meistens kommt in diesem Bereich schon eine unterbrechungsfreie Stromversorgung (USV) zum Einsatz. Wichtig ist in jedem Fall, dass der eingehende Strom überwacht wird. Enterprise-SSDs können eine zusätzliche Absicherung bieten, indem sie bei Stromverlust auf geladene Tantal-Kondensatoren zurückgreifen.

Damit kann das Laufwerk noch ausstehende Schreibvorgänge abschließen, bevor es ausgeschaltet wird. Darüber hinaus können SSD-Controller bei SSDs ohne Tantal-Kondensatoren einen ergänzenden Schutz auf Firmware-Ebene schaffen. Durch ein regelmäßiges entleeren von Daten in den SSD-Controller-Cache-Bereich werden die Auswirkungen von unsicheren Stromabschaltungen minimiert.

Die Unterschiede zwischen den SSD-Klassen sind teils beachtlich und sollten von Rechenzentrumsbetreibern entsprechend bedacht werden. Darüber hinaus gilt es – in Hinblick auf nachhaltige, langfristige Lösungen – aktuelle Anforderungen und neue Standards wie NVMe-Protokolle bei der Planung zu berücksichtigen. Dieses Verständnis im Hinterkopf bieten moderne Enterprise-SSDs ein wirksames Instrument bei der Minimierung von störenden Ausfallzeiten und für das Risikomanagement in erfolgskritischen IT-Umgebungen. (rhh)

Kingston Technology

Lesen Sie auch