Vermeidung von Stolpersteinen in Multi-Cloud-Projekten

8. Juli 2019

Probleme mit dem Datentransfer, der Bereitstellung oder Big-Data-Analysen? Mit den folgenden Tipps gelingt den Systembetreuern die „richtige Mischung“ aus Speicherkapazität, Ausführungsgeschwindigkeit und Kostenkontrolle bei Multi-Cloud-Projekten.

Anzeige
it clientmanagement ad

Multi-Cloud-Infrastrukturen haben einen großen Vorteil: Sie erlauben es dem Nutzer, Public-Cloud- und Private-Cloud-Services so miteinander zu verbinden, wie es gewünscht oder nötig ist. Damit bleibt ein Unternehmen flexibel und unabhängig. Die Verantwortlichen profitieren davon allerdings nur, wenn sie sich der Stolpersteine bewusst sind, die eine Multi Cloud mit sich bringt und diese zu umgehen wissen.

Datentransfer

Eine große Herausforderung in anlaufenden Multi-Cloud-Projekten stellt oftmals der Datentransfer dar. Denn bei der Migration – ob von einer On-Premises-Infrastruktur in die Cloud oder von einem Public-Cloud-Anbieter zu einem anderen – stoßen IT-Verantwortliche häufig auf Bandbreiten- oder Netzwerkprobleme. Besonders der Aufwand für die Integration der Daten und die Kosten für Backups werden leicht unterschätzt. Erschwerend kommt Folgendes hinzu: Wer Daten von einem Provider zu einem anderen umziehen möchte, muss diese meistens erst einmal aus der Cloud extrahieren. Auch dieser Datentransfer kostet Zeit und Geld.

Die Verantwortlichen eines Multi-Cloud-Projekts müssen daher sicherstellen, den Datentransfer so effizient wie möglich zu gestalten. Beispielsweise, indem sie redundante Daten im Vorfeld löschen und damit die Größe des Datensatzes reduzieren. So belegen die Daten weniger Speicherplatz und verursachen weniger Netzwerkverkehr. Auch das Backup wird folglich schneller durchgeführt, und zudem günstiger.

Provisionierung

Über- oder Unterprovisionierung stellt ebenfalls eine häufige Fehlerquelle dar: Wer mehr Storage oder Rechenleistung bucht, als er eigentlich benötigt wird, gibt unnötig Geld aus. Sind die Ressourcen dagegen zu knapp bemessen, beeinträchtigt dies die Ausführungsgeschwindigkeit von Applikationen und behindert so Geschäftsprozesse. Die Skalierung sollte sich daher in der Multi Cloud den Erfordernissen entsprechen. Dabei sind auch die Administratoren und teilweise die externen Berater gefragt: Sie müssen stets den Überblick darüber behalten, welche Server gerade in Betrieb sind. Sie ermitteln die aktuelle Ausgangssituation, analysieren, welcher Speicherbedarf besteht und wie dieser sich am besten abdecken lässt.

Big Data

Doch auch wenn die IT-Verantwortlichen Datentransfer und Provisionierung sichergestellt haben, können sich bei bestimmten Anwendungsszenarien weitere Hindernisse aus der Datennutzung ergeben. Etwa bei typischen Cloud-Anwendungsfälle wie beispielsweise Big-Data-Analysen. Die Herausforderung besteht darin, große Datenmengen möglichst schnell und kostengünstig zu analysieren. Dabei wächst das Datenvolumen exponentiell und erfordert eine hohe Skalierbarkeit des Speichers. Mit einer On-Premises-Infrastruktur ist eine Realisierung meist zu teuer. Zudem müssen Nutzer an verschiedenen Standorten auf die Datensätze zugreifen können. Um dies sicherzustellen, müssen die Daten unabhängig von Standort abrufbar sein.

Diese Anforderungen kann nur über ein passendes Datenmanagement sichergestellt werden. Mit den entsprechenden Datenmanagement-Lösungen ist es möglich, eine funktionale Multi-Cloud-Umgebung zu garantieren. Zuverlässige Tools und Services stellen sicher, dass mehrere Nutzer gleichzeitig auf denselben Datensatz zugreifen können, wobei eine integrierte Verschlüsselung idealerweise für eine hohe Sicherheit sorgt. Die Daten müssen dabei automatisch synchron gehalten werden.

WuXi NextCODE

Mit Cloud Volumes Service von NetApp ist es möglich, über die Snapshot-Funktion Datenbankzustände zu klonen. Solche Klone sind ideal, um Neuerungen oder Datenanreicherung zu testen, ohne das aktive File System zu beeinträchtigen. NetApp stellt mit WuXi NextCODE eine Möglichkeit für derartige Big-Data-Analysen bereit. Um die Daten zu speichern sowie Analysefunktionen und medizinische Applikationen bereitzustellen, nutzt das Unternehmen eine integrierte Multi-Cloud-Umgebung in Kombination mit verschiedenen Datenmanagement-Lösungen.

WuXi NextCODE ist dafür ausgelegt, große Datenmengen integrieren und entschlüsseln. Das stellt hohe Anforderungen an die Performance und das Datenmanagement. Eine adäquate IT-Architektur erlaubt es dem Unternehmen derartigen Anforderungen gerecht zu werden und ermöglicht Flexibilität, Skalierbarkeit und eine Integration mit bestehenden Systemen. Dabei lässt sich beispielsweise eine Million Genome parallel entschlüsseln. Weiterhin ermöglicht das System komplexe Datenabfragen diesbezüglich in etwa 45 Minuten abzuarbeiten.

Peter Wüst, Senior Director Cloud Infrastructure bei NetApp (fah)

 

Lesen Sie auch