Capacity Monitor
basiert auf den Funktionen des xPactor FrameworksCapacity Management – was ist das?
Das Kapazitätsmanagement analysiert die Kapazitätsanforderungen, plant und steuert den Ressourceneinsatz mit Blick auf die Wirtschaftlichkeits- und Performanceanforderungen an Services und liefert Verfahren für die Überwachung von Servicekapazitäten und -performance.
Der Kapazitätsmanagementprozess muss in der Praxis auf drei Ebenen greifen: auf Geschäfts-, Service- und Ressourcenebene. Die Performance- und Kapazitätsanforderungen lassen sich also aus den Geschäftsanforderungen an Services ableiten und auf die hierfür benötigten Ressourcen übertragen.
In Feldern mit stark schwankendem Bedarf hat das Geschäfts- und Service-Kapazitätsmanagement eine wichtige Funktion, um Veränderungen oder Risiken frühzeitig zu erkennen. Auf der Ressourcenebene des Kapazitätsmanagements müssen dann Performance und Wirtschaftlichkeit aufeinander abgestimmt werden.
Kapazitätsmanagement auf Geschäftsebene: stellt die Kapazitätsplanung auf Grundlage von Prognosen zum Ressourcen-Bedarf sicher (Planning), entwickelt Modelle für Szenarioanalysen (Modelling) und bestimmt die erforderlichen Kapazitäten für die Unterstützung der Geschäftsprozesse. (Quelle: Bundesamt für Sicherheit in der Informationstechnik)
Unser Capacity Monitor korreliert und überwacht Ressourcen, Anforderungen, Bedarf und Planung. Bei Abweichungen bzw. Risiken werden deren Auswirkungen auf die verschiedenen Ebene dargestellt.
- bei hochautomatisierten Service Providers, wie z.B. in der Telko-Branche, sind zeitnah Entscheidungen im Rahmen des Verkaufsprozesses zu treffen
- kann ich die erforderlichen Leistungsmerkmale zusichern?
- ergeben sich zusätzliche Beschaffungsaufträge?
- kann ich die erwarteten Installations- und Inbetriebnahmezeiten zusichern?
- die zugehörigen Informationen für diese Entscheidungen sind in den verschiedensten betrieblichen Tools hinterlegt (ERP-Systeme, CRM, Inventare/CMDBs, Forecast und Demand-Tools, etc.) und sehr aufwendig auf die nötige Granularität zu verdichten
- bei jeder dieser Fragen ist im der zu betrachtende Zeitpunkt für eine belastbare Aussage heranzuziehen
- wie sieht mein Ressourcenpool in der Zukunft aus?
- welche Ressourcen brauche ich in der Zukunft unter Berücksichtigung laufender Aufträge und Beschaffungen
- welche Ressourcen werden wann frei
- heute werden diese Informationen sehr oft mit sehr großem Aufwand manuell zusammengetragen
- damit sehr fehleranfällig
- damit oft nicht vollständig
- Verfügbare Tools basieren meistens auf manuelle befüllte Kalkulationstabellen, allenfalls Technologien und Basisprodukten aus dem Infrastruktur-Monitoring
- Folgen dem Buttom-Up-Ansatz
- Komplizierte Regeldefinition und Zuordnung
- Teuer (da manuell), repetitiv und fehleranfällig
- Zeigen immer eine Technologie-Sicht
- Abhängigkeiten werden nicht oder ungenügend gesehen
- Keine automatisation
- Fehlende Funktionalitäten
- Top Down-Ansatz (vom Kunden zur Infrastruktur)
- Errechnung der letztmöglichen Bestellzeitpunkte für kritische Komponenten auf Basis von Vorlaufzeiten
- Automatisierte Alarmierung / Information über die Notwendigkeit von Kapazitätserweiterungen
- Abbildung von Abhängigkeiten zwischen Komponenten die uU in verschiedene Systeme abgebildet sind
Kritische Erfolgsfaktoren für das Capacity-Management
Als Service-Erbringer müssen sie immer in der Lage sein folgende Fragen zu beantworten:
WER nutzt WAS?
Welche Anzahl Ressourcen werden von welchem Dienst verbraucht?
WELCHE Einschränkungen hat WAS?
WIE ist der aktuelle (Ressourcen-)Zustand?
Welche Ressourcen sind effektiv wo verfügbar?
Was ist das Delta zwischen SOLL und IST?
WAS wird WANN WO benötigt?
- aufgrund vergangener Trends
- aufgrund effektivem Bestelleingang
WAS ist vereinbart ?
WAS wird WANN verfügbar?
Wo wird zusätzliche Kapazität wann bereit gestellt?
Lösung muss Robust sein
- Kein Verlust von Informationen
- Geringe Ausfallzeiten
- Datensicherheit
Lösung muss performant sein
- Schnelles Laden von Modellen: im kleinen Minutenbereich für Modelle mit 50.000 Elementen
- Aggregation in großen Modellen muss „nearrealtime fähig“ sein: Aggregation und Propagation im Sekundenbereich für große Modelle
Lösung muss einfach zu bedienen sein
- Nur wenige Klicks bis zur gewünschten Information
- Ergebnisse müssen transparent nachvollziehbar sein
Lösung muss skalierbar sein
- Für kleine und große Bäume und Datenraten
Lösung braucht offene Interfaces
- Nutzung von Kommunikationsstandards
- Reduktion auf wenige Interfaces