Viel Dynamik im Storage-Umfeld in 2020
17. Dezember 2019Auch wenn Storage und Data Management sowie die damit verbundene Infrastruktur mittlerweile oft unter „Commodity“ eingeordnet wird, sieht man bei Pure Storage auch in Zukunft hier ein erhebliches Potential für Unternehmen und deren Kunden. Für das kommende Jahr geht Güner Aksoy, Director Central Europe bei Pure Storage von sechs wichtigen Entwicklungen aus, die direkte Auswirkungen auf die Industrie haben werden.
Der erste Punkt laut Güner Aksoy ist die Renaissance der Objektspeicherung. Sie hat ihre Wurzeln als günstige Cold-Storage-Technik abgelegt und sich als neue Form der Primärspeicherung etabliert. Ursprünglich zur Unterstützung der Verwaltung extrem großer Datensätze (über das hinaus, was herkömmliche Dateisysteme bewältigen könnten) konzipiert, hat sich Objektspeicher zum Speicherstandard für Cloud-basierte Anwendungen entwickelt, wegen seiner Fähigkeit, hochparallelen und verteilten Zugriff auf große Datensätze zu unterstützen.
Da Anwendungen für Cloud-freundliche Architekturen entwickelt oder neu plattformiert werden, wird Objektspeicher die erste Wahl sein, wenn es darum geht, Anwendungen zu entkoppeln und zu disaggregieren und ihre Rechenressourcen aus einem Pool von gemeinsam genutzten Speichermedien zu beziehen. Dieses Muster hat sich nicht nur in der Entwicklung kundenspezifischer Software, sondern auch bei großen Softwareanbietern wie Splunk und Vertica durchgesetzt.
Moderne Analytik startet durch wie eine Rakete
Um das Wachstum der modernen Analytik zu fördern, sind kostengünstigere Infrastrukturoptionen wie leistungsfähigere CPUs, verbrauchsbasierte Infrastrukturen, die sowohl vor Ort als auch in der Public Cloud verfügbar sind, und kostengünstiger Flash-Speicher erforderlich. Es gibt auch ein signifikantes Wachstum bei den Stream-Analytics-Plattformen, sowohl Open Source (Apache Flink, Apache Beam und Spark Streaming) als auch kommerziell (Splunk DSP), die immer mehr Batch-basierte Verarbeitungsplattformen ersetzen.
Moderne Analysen können jetzt mit nativen Cloud-Analysearchitekturen, die aus Stateless-Servern, Containern und leistungsstarken S3-Objektspeichern bestehen, eine größere Reichweite erzielen. Darüber hinaus wird das ungehemmte Wachstum der Datenquellen, einschließlich intelligenter Geräte (Smart Home, Wearables, vernetzte Autos, industrielles Internet etc.), die Einführung moderner Analytik vorantreiben, um mehr Erkenntnisse zu gewinnen.
Flash wird dem Unmöglichen mit Next-Gen-Medien wie QLC trotzen
Seit dessen Einführung beschränkte sich der Einsatz von Flash weitgehend auf Tier-1- und leistungsorientierte Anwendungen. Mit neuen Solid-State-Technologien wie Storage Class Memory (SCM) und QLC, die online bereitgestellt werden und den Speicherplatz schichten, steht Flash nun wirklich davor, völlig neue Datenmengen zu adressieren.
Im High-End-Bereich können Shared-Storage-Arrays mit der Kombination aus SCM und Hochgeschwindigkeitsprotokollen wie NVMe-oF nun serverbasierten Speicher ebenso bereitgestellt werden wie Leistung für die latenzempfindlichsten Anwendungen. Diese Reihe von Anwendungen ist eine der letzten Holdouts auf DAS, die nun alle gemeinsamen Datenservices für Shared Storage (Datensicherung, Datenreduktion etc.) erhalten können, nun für die besten Performance- und Rich-Data-Services einsetzbar.
Gleichzeitig bringt die bevorstehende Einführung von QLC Flash auf Speicherebenen, die bisher weitgehend auf Festplatte verblieben sind. Diese Kostenreduzierung ermöglicht es allen Anwendungen, die Vorteile von Flash über das Performanceplus hinaus zu nutzen: Einfachheit, Zuverlässigkeit sowie reduzierter Energie- und Platzbedarf im Rechenzentrum.
Von Beratungsrollen zu automatisierten Maßnahmen
Der KI-Betrieb wird von Beratungsrollen zu automatisierten Maßnahmen übergehen, da Kunden einen freihändigen Ansatz wünschen. Denn Unternehmen werden offener für KI sein, die Entscheidungen für sie treffen wird. Kunden wollen Richtlinien festlegen und die Anbieter die Richtlinien umsetzen lassen, was teilweise auf den deklarativen Charakter von Kubernetes und Containermanagement zurückzuführen ist.
Die Einfachheit der Container wird es Unternehmen ermöglichen, einen Zustand zu definieren, und der Container wird der Katalysator sein. Die Technologie sollte dann Impulse geben und Erkenntnisse in der gesamten Umgebung liefern. KI wird eingesetzt, um effizient herauszufinden, wo das prädiktive Modell schlecht abschneidet, und um Daten für diesen Merkmalsraum zu erweitern. Dies ist entscheidend für KI-Anwendungen wie Anomalie-Erkennung und automatische Ursachenanalyse, um in mehr Kontexten skalierbar und anwendbar zu sein.
Container erfordern dauerhafte Speicheroptionen
Container wurden entwickelt, um die Bereitstellung von Stateless-Anwendungen so einfach und kosteneffizient wie möglich zu gestalten. Da die Entstehung von Kubernetes und die Unterstützung von Containern durch VMware die Containernutzung in Richtung Mainstream-Anwendungen rasch ausweitet, ist die Bereitstellung von persistentem Speicher für Container von entscheidender Bedeutung, damit Datenbanken und Anwendungen die Plattform für Container neu aufbauen können.
2020 scheint das Jahr zu sein, in dem die meisten Unternehmen ihre privaten und hybriden Cloud-Plattformen über VMs hinaus weiterentwickeln und eine unternehmensweite Containerstrategie implementieren. Hierzu gehört auch der Aufbau einer Speicherbasis, die es geschäftskritischen Stateful-Anwendungen ermöglicht, Container zu nutzen.
Kunden verlangen ein Abo für Innovation mit As-a-Service-Modellen
As-as-a-Service-Modelle gibt es seit Beginn der Public Cloud. Für die meisten Storage-Konsumenten ist die Hybrid-Cloud die Realität und die Zukunft – und sie wollen das Beste aus beiden Welten herausholen. Dies bedeutet, die Einfachheit und Automatisierung ihrer lokalen Infrastruktur voranzutreiben, um sie wie die Cloud verwalten zu können, und die gleichen Enterprise-Funktionen und -Steuerungsoptionen in der Cloud zu erhalten wie Ort.
Beides ist möglich mit einem flexiblen, abonnementbasierten As-a-Service-Modell. Im Jahr 2020 wird die Nachfrage nach As-a-Service im Storage-Markt steigen. Unternehmen planen mehr Investitionen in OPEX-Modelle, aber erfolgreiche Modelle müssen sowohl die operativen als auch die kaufmännischen Aspekte in Einklang bringen. Aus operativer Sicht sind Standardisierung, On-Demand-Zugriff, API-gesteuerte Verwaltung und grenzenlose Skalierbarkeit wichtige Attribute. Auf der Verbrauchsseite werden Schlüsselmerkmale wie eine nutzungsbasierte Bezahlung sowie eine flexible, bedarfsgerechte Skalierung entscheidend sein.
Gleiches gilt für eine unterbrechungsfreie Kundenerfahrung nach dem Evergreen-Modell. Dabei können Dienste im Laufe der Zeit ohne Unterbrechung erweitert oder aktualisiert werden, all dies basierend auf 100-prozentigen OPEX-Servicemodell mit monatlicher Zahlung. (rhh)