Schlüsselrolle der Datenbank-Performance für das Verständnis der Anwendungsintegrität

13. April 2021

Lange Zeit ging es beim Datenbank- und Anwendungsmonitoring um einen einzelnen Server, der sich in einem einzelnen Rechenzentrum an einem einzelnen Standort befand. Viele Monitoring-Tools waren – und sind – genau für ein Rechenzentrum und einen Einzelknoten gemacht. Heute werden zwar längst Cloud-native Anwendungen genutzt, allerdings halten die Monitoring-Tools oftmals nicht mehr Schritt.

Wenn man Metriken von einer Datenbank oder einem Server abfragt, verstehen diese nicht, wonach genau man sucht oder wie viele Knoten und Rechenzentren überhaupt existieren. Stattdessen erhält man die Protokolldaten und muss versuchen, alles mühevoll zusammenzusetzen. Zum Glück gibt es mittlerweile neue Tools, die speziell für die Datenbank- und Anwendungsleistungsüberwachung (APM) gedacht sind und Einblicke liefern, durch die wir die Informationen mit unseren Problemen korrelieren können.

Anzeige
corp x optA

Doch wie genau hängen Datenbankleistungs- und Anwendungsleistungs-Metriken zusammen? Und wie können Einblicke aus dem einen Bereich die Ergebnisse und Metriken im anderen Bereich beeinflussen?

Die neue IT-Realität

Wie hängen APM und DPM in dieser neuen Umgebung zusammen? Die Datenbankleistungsüberwachung hat schon immer hervorragende Einblicke geliefert, aber lediglich innerhalb einer bestimmten Datenbank. Metriken und Performance außerhalb der Datenbank müssen daher separat überwacht werden. Wenn Cloud-native Anwendungen im Einsatz sind, die Informationen global verteilen, sollte man bei der Datenbankoptimierung die gesamte Workload betrachten, statt mit einer bestimmten Abfrage zu beginnen.

Dabei werden sowohl lokale als auch Cloud-native Datenbanken betrachtet. Die Annahme, dass Technikexperten in einer Umgebung mit Einzelknoten und einem einzelnen Rechenzentrum arbeiten, trifft heute nicht mehr zu. Das Performance-Monitoring der nächsten Generation muss über die Datenbank hinausgehen und als Erstes die gesamte Workload anstelle bestimmter Abfragen betrachten. Mit DPM und APM lassen sich generalisierte Metriken und das Benutzererlebnis betrachten, um herauszufinden, ob im Datenbank- oder Benutzerbereich Probleme vorliegen.

Die Signale erkennen

Wartezeit, Datenverkehr, Fehler und Auslastung. Diese von Reliability-Technikern von Google definierten vier Hauptsignale sind für Serviceverbesserungen entscheidend. Sie geben Auskunft über die Antwortzeit, die Zahl der Anfragen, die Fehlerrate und die Auslastung im Netzwerk. Die Datenbankleistungsüberwachung erstellt mithilfe dieser vier Signale Übersichten über die Workload anstelle bestimmter Abfragen.

Diese Einblicke zeigen die Performance von Datenbank und Anwendungen und liefern intelligente Metriken für das Benutzererlebnis, die über einfache, kontextlose Messdaten hinausgehen. Wenn man sich beispielsweise fragt, ob ein Datenbankproblem vorliegt oder ob eine Website lediglich mehr Datenverkehr empfängt als sonst, lässt sich über die genannten Signale erkennen, ob tatsächlich Fehler in der Datenbank aufgetreten sind oder ob die Benutzer eine Website überlasten und daher Verzögerungen bei der Ladezeit erleben. Wenn man auf diese Weise die allgemeine Problemursache erkannt hat, findet man auch schneller die direkte Ursache des Problems.

Details im Blick behalten

Nachdem man durch eine Analyse der Workloads das Gesamtproblem ermittelt hat, kann man ins Detail gehen und die genaue Problemursache identifizieren. Lange Zeit bedeutete das, mehrere Abfragen durchzugehen, ohne zu wissen, wo genau man suchen soll, was für Frustration und lange Problemlösungszeiten sorgte. Wenn man an der Oberfläche beginnt und als Erstes die Workloads betrachtet, kann man sich diesen Ärger sparen und genauer erfahren, wo das Problem entsteht.

Es lässt sich sogar herausfinden, warum ein Problem auftritt, und nicht nur, was passiert. Durch frühe Einblicke in diese Metriken lassen sich Probleme finden und beheben, bevor daraus ernsthafte Probleme werden. Dementsprechend ist es nicht mehr notwendig, wie es beim Datenbankmonitoring häufig der Fall ist, reaktiv zu arbeiten und darauf zu warten, dass einen Warnmeldungen über Probleme informieren. Vielmehr kann man aktiv das Benutzererlebnis überwachen und Probleme im Voraus verhindern.

Fazit

„Langsam ist das neue Down“, und das bedeutet: Eine verzögerte Problemlösung darf heute keine Option mehr sein. In diesem Sinne ist es wichtig, nicht nur auf Probleme zu reagieren, sobald sie einmal aufgetreten sind, sondern vorab Maßnahmen zu ergreifen, um ihnen vorzubeugen. Die Datenbank-Performance spielt dabei eine Schlüsselrolle, um die Anwendungsintegrität zu verstehen und zu wahren.

Thomas LaRock ist Head Geek bei SolarWinds

SolarWinds

Lesen Sie auch