Performance-Modeling ist eine anspruchsvolle Disziplin, die man am besten durch ständige Wiederholung trainiert. Ein Großteil der Bemühungen kreisen dabei immer wieder um die Erstellung und die Validierung eines Modells, der zu untersuchenden Umgebung und ihrer Anwendungen. Sobald das PDQ-Modell erst einmal validiert ist, muss es nicht immer wieder aufs Neue zusammengebaut werden. Im Allgemeinen reicht dann etwas Tuning – und schon lassen sich auch Performance-Änderungen durch Hardware-Upgrades oder durch neue Software berücksichtigen.
Die dreistufige E-Commerce-Applikation, für die dieser Beitrag ein beispielhaftes Modell geliefert hat, bildet einen recht guten Ausgangspunkt, auf dem sich aufbauen lässt. Auf diese Weise lässt sich das Modell relativ einfach um multiple Server und zusätzliche Aufgaben erweitern.
Eines der erstaunlichsten Ergebnisse des PDQ-Modells ist die Tatsache, dass es den analysierenden Admin bestimmte Effekte – zum Beispiel versteckte Latenzen – erkennen lässt, die in den überwachten Daten für ihn sonst nicht ohne weiteres ersichtlich gewesen wären. Aber das vielleicht allerwichtigste Resultat des PDQ-Einsatzes sind gar nicht die Leistungsmodelle an sich, sondern es ist die Tatsache, dass der PDQ-Modellierungsprozess einen organisatorischen Rahmen für die Beurteilung aller Leistungsdaten liefert, in dem Erkenntnisse aus dem Monitoring bis hin zur Trendvorhersage zusammenfließen können. (jcb)
Infos