Quantencomputer brauchen maximale Transparenz beim Datenverkehr

8. Oktober 2019

Wird extrem leistungsfähiges Quanten-Computing via Cloud verfügbar, könnten riesige Datenmengen und Aufgaben millionenfach schneller bearbeitet werden als heutzutage. Somit wird diese Technik das Alltags- und Geschäftsleben entscheidend prägen. Beispielsweise könnten Anwendungen, die auf Quanten-Computing basieren, so diverse Problemfelder wie Verkehrsstaus, Internetkriminalität oder Krebserkrankungen einschränken oder gar verhindern. Dass Google nun die „Quantum Supremacy“ belegen konnte, bedeutet jedoch noch nicht, dass man nun den Fuß vom Gas nehmen könne. Vielmehr hat Google damit den Startschuss für das Wettrennen um die Kommerzialisierung des Quanten-Computing gegeben.

Um Quanten-basierte Cloud-Dienste zu entwickeln, egal ob für kommerzielle oder akademische Zwecke, muss man Quantenbits (Qubits) und Netzwerkdaten zusammenführen. Wenn Quanten-Cloud-Dienste jemals in der ersten Liga mitspielen sollen, benötigen sie immer eine Korrelation zu den im Netzwerk verfügbaren Traffic-Daten, um den Benutzern einen Mehrwert zu bieten. Dies erzeugt eine besondere Herausforderung für IT- und Sicherheitsexperten, die einerseits die Verfügbarkeit von Services sicherstellen und eine andererseits einwandfreie Benutzererfahrung bieten müssen.

Zum einen lösen Quanten-Cloud-Dienste eine Million Berechnungen gleichzeitig; zum anderen werden die Ergebnisse via Datentransfer über ein Cloud-, SD-WAN- oder ein 5G-Netzwerk bereitgestellt. Es spielt keine Rolle, ob Quanten-Computing heute oder morgen eine 100 Millionen Mal schnellere Antwort liefern kann als eine normtraditionelle Computerarchitektur, wenn eine davon abhängige Anwendung Leistungsprobleme aufweist, wenn die resultierenden Daten nicht sicher am Endgerät ankommen oder wenn ein Datenschutzrisiko in einem lokalen Rechenzentrum lauert.

Unabhängig davon, wie die Welt des Quanten-Computings in Zukunft aussieht, müssen IT-Teams wie NetOps und SecOps immer noch Netzwerkdaten verwenden, um einen umfassenden Einblick in den Datenverkehr zu erhalten. Diese Forderung nach Transparenz ist unabhängig davon, ob dieser in lokalen Rechenzentren oder in einer Cloud-Umgebung stattfindet.

Fokus auf den Netzwerkdaten

Netzwerkdaten werden verwendet, um Sichtbarkeitslücken zu füllen und damit Informationen einzusehen, die anderen verwehrt bleiben. Dies hilft wiederum dabei, verwertbare Informationen zu erhalten, um Cyber-Angriffe zu erkennen oder Beeinträchtigungen in der Verfügbarkeit schnell zu beheben. Quanten-Computing erhöht zwar die Geschwindigkeit, erweitert jedoch auch die Komplexität der Infrastruktur in ganz neue Dimensionen – was wiederum zu völlig neuen Herausforderungen und Fehlern führen kann.

Um das Risiko zu verringern, gilt es daher, den „toten Winkel“ bei der Bereitstellung von Diensten zu entfernen. Dazu sind Netzwerkdaten weiter mit Informationen anzureichern und mit anderen Daten in Korrelation zu setzen, um dadurch die Komplexität der Infrastruktur zu verringern und so maximale Transparenz zu erreichen. Nur dann kann die IT im Unternehmen die Probleme verstehen, die sich auf Serviceleistung und -sicherheit auswirken.

Bei aller Aufregung um die zukünftigen Möglichkeiten des Quanten-Computings können und sollte die Bedeutung von Netzwerkdaten daher nicht ignoriert werden. Während Google nach qualitativ hochwertigen Qubits strebt und neue Wege der Quantum Supremacy beschreitet, beruht der Erfolg letztendlich auf der Verwendung der richtigen Daten für die Gewährleistung und Sicherheit von Diensten in Zeiten einer unbegrenzten Anzahl von Geräten, Cloud-Anwendungen und exponentieller Skalierbarkeit.

Ron Lifton ist Senior Enterprise Solutions Manager bei Netscout.

Netscout

Lesen Sie auch