Dieser Pfeiler im Google Cloud Well-Architected Framework enthält Empfehlungen zur Optimierung der Leistung von Arbeitslasten inGoogle Cloud.
Dieses Dokument richtet sich an Architekten, Entwickler und Administratoren, die Arbeitslasten in Google Cloudplanen, entwerfen, bereitstellen und verwalten.
Die Empfehlungen in diesem Bereich können Ihrem Unternehmen helfen, effizient zu arbeiten, die Kundenzufriedenheit zu verbessern, den Umsatz zu steigern und die Kosten zu senken. Beispiel: Wenn die Backend-Verarbeitungszeit einer Anwendung abnimmt, genießen Nutzer schnellere Antwortzeiten, was zu einer höheren Nutzerbindung und mehr Umsatz führen kann.
Bei der Leistungsoptimierung kann es zu einem Kompromiss zwischen Leistung und Kosten kommen. Manchmal kann die Leistungsoptimierung jedoch helfen, die Kosten zu senken. Beispiel: Autoscaling kann dazu beitragen, eine vorhersagbare Leistung zu erzielen, wenn die Last zunimmt, da die Systemressourcen nicht überlastet werden. Außerdem können Sie in Zeiten geringer Last mit Autoscaling nicht verwendete Ressourcen entfernen und so die Kosten senken.
Die Leistungsoptimierung ist ein kontinuierlicher Prozess, keine einmalige Aktivität. Das folgende Diagramm zeigt die Phasen des Leistungsoptimierungsprozesses:
Die Leistungsoptimierung ist ein kontinuierlicher Prozess, der die folgenden Phasen umfasst:
- Anforderungen definieren: Definieren Sie detaillierte Leistungsanforderungen für jede Schicht des Anwendungsstacks, bevor Sie Ihre Anwendungen entwerfen und entwickeln. Berücksichtigen Sie bei der Planung der Ressourcenzuweisung die wichtigsten Arbeitslastmerkmale und Leistungserwartungen.
- Entwerfen und bereitstellen: Verwenden Sie elastische und skalierbare Designmuster, mit denen Sie Ihre Leistungsanforderungen erfüllen können.
- Überwachen und analysieren: Überwachen Sie die Leistung kontinuierlich mithilfe von Protokollen, Tracing, Messwerten und Benachrichtigungen.
Optimieren: Berücksichtigen Sie mögliche Neugestaltungen, wenn sich Ihre Anwendungen weiterentwickeln. Cloud-Ressourcen richtig dimensionieren und neue Funktionen nutzen, um sich an veränderte Leistungsanforderungen anzupassen.
Wie im vorherigen Diagramm dargestellt, fahren Sie mit dem Monitoring fort, bewerten Sie die Anforderungen neu und passen Sie die Cloud-Ressourcen an.
Prinzipien und Empfehlungen zur Leistungsoptimierung speziell für KI- und ML-Arbeitslasten finden Sie im Well-Architected Framework unter KI und ML: Leistungsoptimierung.
Grundprinzipien
Die Empfehlungen im Bereich der Leistungsoptimierung des Well-Architected-Frameworks sind den folgenden Grundprinzipien zugeordnet:
- Ressourcenzuweisung planen
- Vorteile der Elastizität nutzen
- Modulares Design fördern
- Leistung kontinuierlich überwachen und verbessern
Beitragende
Autoren:
- Daniel Lees | Cloudsicherheitsarchitekt
- Gary Harmson | Customer Engineer
- Luis Urena | Developer Relations Engineer
- Zach Seils | Networking Specialist
Weitere Beitragende:
- Filipe Gracio, PhD | Customer Engineer
- Jose Andrade | Enterprise Infrastructure Customer Engineer
- Kumar Dhanagopal | Cross-Product Solution Developer
- Marwan Al Shawi | Partner Customer Engineer
- Nicolas Pintaux | Customer Engineer, Application Modernization Specialist
- Ryan Cox | Principal Architect
- Radhika Kanakam | Senior Program Manager, Cloud GTM
- Wade Holmes | Global Solutions Director
Ressourcenzuweisung planen
Dieses Prinzip im Bereich der Leistungsoptimierung des Google Cloud Well-Architected Framework enthält Empfehlungen zur Planung von Ressourcen für Ihre Arbeitslasten inGoogle Cloud. Darin wird betont, wie wichtig es ist, detaillierte Anforderungen zu definieren, bevor Sie Anwendungen für die Cloud-Bereitstellung oder -Migration entwerfen und entwickeln.
Grundsatzübersicht
Damit Ihre Geschäftsanforderungen erfüllt werden, ist es wichtig, dass Sie die Leistungsanforderungen für Ihre Anwendungen vor dem Design und der Entwicklung definieren. Definieren Sie diese Anforderungen so detailliert wie möglich für die Anwendung als Ganzes und für jede Schicht des Anwendungsstacks. Beispielsweise müssen Sie bei der Speicherebene den Durchsatz und die E/A-Vorgänge pro Sekunde (IOPS) berücksichtigen, die die Anwendungen benötigen.
Planen Sie von Anfang an Anwendungsdesigns mit Blick auf Leistung und Skalierbarkeit. Berücksichtigen Sie dabei Faktoren wie die Anzahl der Nutzer, das Datenvolumen und das potenzielle Wachstum im Zeitverlauf.
Die Leistungsanforderungen für jede Arbeitslast variieren und hängen von der Art der Arbeitslast ab. Jede Arbeitslast kann eine Mischung aus Komponentensystemen und Diensten mit individuellen Leistungsmerkmalen enthalten. Ein System, das beispielsweise für die regelmäßige Batchverarbeitung großer Datensätze verantwortlich ist, hat andere Leistungsanforderungen als eine interaktive Virtual-Desktop-Lösung. Ihre Optimierungsstrategien müssen auf die spezifischen Anforderungen der einzelnen Arbeitslasten eingehen.
Wählen Sie Dienste und Funktionen aus, die den Leistungszielen der einzelnen Arbeitslasten entsprechen. Für die Leistungsoptimierung gibt es keine Einheitslösung. Wenn Sie jede Arbeitslast optimieren, kann das gesamte System eine optimale Leistung und Effizienz erzielen.
Berücksichtigen Sie die folgenden Arbeitslastmerkmale, die sich auf Ihre Leistungsanforderungen auswirken können:
- Bereitstellungs-Archetyp: Der Bereitstellungs-Archetyp, den Sie für eine Anwendung auswählen, kann sich auf die Auswahl der Produkte und Funktionen auswirken, die dann die Leistung bestimmen, die Sie von Ihrer Anwendung erwarten können.
- Ressourcenbereitstellung: Wenn Sie eine Google Cloud Region für Ihre Anwendungsressourcen auswählen, sollten Sie eine geringe Latenz für Endnutzer priorisieren, die Vorschriften zur Datenspeicherung einhalten und für die Verfügbarkeit der erforderlichen Google Cloud Produkte und ‑dienste sorgen.
- Netzwerkverbindung: Wählen Sie Netzwerkdienste aus, die den Datenzugriff und die Bereitstellung von Inhalten optimieren. Nutzen Sie das globale Netzwerk, die Hochgeschwindigkeits-Backbones, die Interconnect-Standorte und die Caching-Dienste von Google Cloud.
- Anwendungs-Hosting-Optionen: Bei der Auswahl einer Hostingplattform müssen Sie die Leistungsvor- und ‑nachteile der einzelnen Optionen bewerten. Beispiele sind Bare-Metal-, virtuelle Maschinen, Container und serverlose Plattformen.
- Speicherstrategie: Wählen Sie eine optimale Speicherstrategie aus, die auf Ihren Leistungsanforderungen basiert.
- Ressourcenkonfigurationen: Der Maschinentyp, die IOPS und der Durchsatz können sich erheblich auf die Leistung auswirken. Außerdem müssen Sie zu Beginn der Designphase geeignete Sicherheitsfunktionen und ihre Auswirkungen auf die Ressourcen berücksichtigen. Wenn Sie Sicherheitsfunktionen planen, müssen Sie die erforderlichen Leistungseinbußen in Kauf nehmen, um unvorhergesehene Auswirkungen zu vermeiden.
Empfehlungen
Beachten Sie die Empfehlungen in den folgenden Abschnitten, um eine optimale Ressourcenzuweisung zu erreichen.
Kontingente konfigurieren und verwalten
Achten Sie darauf, dass Ihre Anwendung nur die erforderlichen Ressourcen wie Arbeitsspeicher, Speicherplatz und Rechenleistung verwendet. Eine zu hohe Allokation kann zu unnötigen Ausgaben führen, während eine zu niedrige Allokation zu Leistungseinbußen führen kann.
Überwachen Sie regelmäßig die Kapazität Ihrer Kontingente, um eine elastische Skalierung zu ermöglichen und dafür zu sorgen, dass ausreichend Ressourcen verfügbar sind. Außerdem können Sie die Kontingentnutzung im Blick behalten, um potenzielle Skalierungseinschränkungen oder Probleme mit einer Überzuweisung zu erkennen und dann fundierte Entscheidungen über die Ressourcenzuweisung zu treffen.
Aufklärung betreiben und das Bewusstsein schärfen
Informieren Sie Ihre Nutzer über die Leistungsanforderungen und stellen Sie Lernressourcen zu effektiven Techniken zur Leistungsverwaltung zur Verfügung.
Dokumentieren Sie regelmäßig die angestrebte Leistung und die tatsächliche Leistung, um den Fortschritt zu bewerten und Verbesserungsmöglichkeiten zu identifizieren. Führen Sie einen Lasttest für Ihre Anwendung durch, um potenzielle Grenzwerte zu ermitteln und herauszufinden, wie Sie die Anwendung skalieren können.
Leistungsmesswerte überwachen
Mit Cloud Monitoring können Sie Trends in Leistungsmesswerten analysieren, die Auswirkungen von Tests analysieren, Benachrichtigungen für kritische Messwerte definieren und rückblickende Analysen durchführen.
Active Assist ist eine Reihe von Tools, die Statistiken und Empfehlungen zur Optimierung der Ressourcennutzung liefern. Anhand dieser Empfehlungen können Sie die Ressourcenzuweisung anpassen und die Leistung verbessern.
Vorteile der Elastizität nutzen
Dieses Prinzip im Bereich der Leistungsoptimierung des Google Cloud Well-Architected Framework enthält Empfehlungen zur Einbindung von Elastizität, also der Fähigkeit, Ressourcen dynamisch an Änderungen der Arbeitslastanforderungen anzupassen.
Durch Elastizität können verschiedene Komponenten eines Systems unabhängig skaliert werden. Diese zielgerichtete Skalierung kann die Leistung und Kosteneffizienz verbessern, da Ressourcen genau dort bereitgestellt werden, wo sie benötigt werden, ohne dass sie über- oder unterbelegt werden.
Grundsatzübersicht
Die Leistungsanforderungen eines Systems wirken sich direkt darauf aus, wann und wie das System vertikal oder horizontal skaliert wird. Sie müssen die Kapazität des Systems bewerten und die Last ermitteln, die das System bei der Baseline voraussichtlich bewältigen muss. Anschließend müssen Sie festlegen, wie das System auf Erhöhungen und Verringerungen der Auslastung reagieren soll.
Wenn die Auslastung zunimmt, muss das System horizontal oder vertikal skaliert werden oder beides. Fügen Sie für die horizontale Skalierung Replikknoten hinzu, damit das System eine ausreichende Gesamtkapazität hat, um die erhöhte Nachfrage zu erfüllen. Bei der vertikalen Skalierung ersetzen Sie die vorhandenen Komponenten der Anwendung durch Komponenten mit mehr Kapazität, mehr Arbeitsspeicher und mehr Speicherplatz.
Wenn die Auslastung sinkt, muss das System horizontal, vertikal oder beides gleichzeitig herunterskalieren.
Definieren Sie die Umstände, unter denen das System hoch- oder herunterskaliert wird. Planen Sie, Systeme in bekannten Zeiten mit hohem Traffic manuell zu skalieren. Verwenden Sie Tools wie das Autoscaling, das auf eine Erhöhung oder Verringerung der Last reagiert.
Empfehlungen
Beachten Sie die Empfehlungen in den folgenden Abschnitten, um die Vorteile der Elastizität zu nutzen.
Spitzenlastzeiten planen
Sie müssen einen effizienten Skalierungspfad für bekannte Ereignisse planen, z. B. für erwartete Zeiten mit erhöhter Kundennachfrage.
Sie sollten Ihr System vor bekannten Zeiten mit hohem Traffic hochskalieren. Wenn Sie beispielsweise ein Einzelhandelsunternehmen sind, erwarten Sie eine steigende Nachfrage während saisonaler Sonderangebote. Wir empfehlen Ihnen, Ihre Systeme vor diesen Verkäufen manuell zu skalieren, damit sie die erhöhte Auslastung sofort bewältigen können, oder vorhandene Limits sofort anzupassen. Andernfalls kann es einige Minuten dauern, bis das System Ressourcen als Reaktion auf Echtzeitänderungen hinzufügt. Die Kapazität Ihrer Anwendung wird möglicherweise nicht schnell genug erhöht, was bei einigen Nutzern zu Verzögerungen führt.
Bei unbekannten oder unerwarteten Ereignissen wie einem plötzlichen Anstieg der Nachfrage oder des Traffics können Sie mithilfe von Autoscaling-Funktionen eine elastische Skalierung auslösen, die auf Messwerten basiert. Dazu gehören die CPU-Auslastung, die Kapazität des Load Balancers, die Latenz und sogar benutzerdefinierte Messwerte, die Sie in Cloud Monitoring definieren.
Angenommen, Sie haben eine Anwendung, die in einer verwalteten Instanzgruppe (Managed Instance Group, MIG) der Compute Engine ausgeführt wird. Für diese Anwendung muss jede Instanz optimal funktionieren, bis die durchschnittliche CPU-Auslastung 75 % erreicht. In diesem Beispiel können Sie eine Autoscaling-Richtlinie definieren, mit der mehr Instanzen erstellt werden, wenn die CPU-Auslastung den Grenzwert erreicht. Diese neu erstellten Instanzen tragen dazu bei, die Auslastung zu absorbieren. So bleibt die durchschnittliche CPU-Auslastung optimal, bis die für die MIG konfigurierte maximale Anzahl von Instanzen erreicht ist. Wenn die Nachfrage sinkt, werden die Instanzen, die nicht mehr benötigt werden, gemäß der Autoscaling-Richtlinie entfernt.
Mit dem verwalteten Autoscaler können Sie Ressourcen-Slotreservierungen in BigQuery planen oder die Limits für Autoscaling-Konfigurationen in Spanner anpassen.
Prognosebasierte Skalierung verwenden
Wenn Ihre Systemkomponenten die Compute Engine umfassen, müssen Sie prüfen, ob vorausschauendes Autoscaling für Ihre Arbeitslast geeignet ist. Beim vorausschauenden Autoscaling wird die zukünftige Last anhand der Verlaufstrends Ihrer Messwerte prognostiziert, z. B. der CPU-Auslastung. Prognosen werden alle paar Minuten neu berechnet, sodass das Autoscaling seine Prognose schnell auf die letzten Änderungen der Auslastung anpasst. Ohne vorausschauendes Autoscaling kann das Autoscaling eine Gruppe nur in direkter Reaktion auf beobachtete Laständerungen in Echtzeit skalieren. Das vorausschauende Autoscaling funktioniert sowohl mit Echtzeitdaten als auch mit Verlaufsdaten, um sowohl auf die aktuelle als auch auf die prognostizierte Auslastung zu reagieren.
Serverlose Architekturen implementieren
Sie sollten eine serverlose Architektur mit serverlosen Diensten implementieren, die von Natur aus elastisch sind, z. B.:
Im Gegensatz zum Autoscaling bei anderen Diensten, für das Regeln zur Feinabstimmung erforderlich sind (z. B. Compute Engine), erfolgt die serverlose Autoscaling-Skalierung sofort und kann auf null Ressourcen herunterskaliert werden.
Autopilot-Modus für Kubernetes verwenden
Für komplexe Anwendungen, bei denen eine stärkere Kontrolle über Kubernetes erforderlich ist, können Sie den Autopilot-Modus in der Google Kubernetes Engine (GKE) verwenden. Der Autopilot-Modus bietet standardmäßig Automatisierung und Skalierbarkeit. GKE skaliert Knoten und Ressourcen automatisch basierend auf dem Traffic. GKE verwaltet Knoten, erstellt neue Knoten für Ihre Anwendungen und konfiguriert automatische Upgrades und Reparaturen.
Modulares Design fördern
Dieses Prinzip im Bereich der Leistungsoptimierung des Google Cloud Well-Architected Framework enthält Empfehlungen für ein modulares Design. Modulare Komponenten und klare Oberflächen ermöglichen eine flexible Skalierung, unabhängige Updates und eine zukünftige Komponententrennung.
Grundsatzübersicht
Informieren Sie sich über die Abhängigkeiten zwischen den Anwendungs- und Systemkomponenten, um ein skalierbares System zu entwerfen.
Modulares Design ermöglicht Flexibilität und Ausfallsicherheit, unabhängig davon, ob ursprünglich eine monolithische oder eine Mikrodienstarchitektur bereitgestellt wurde. Wenn Sie das System in klar definierte, unabhängige Module mit klaren Schnittstellen unterteilen, können Sie einzelne Komponenten skalieren, um bestimmte Anforderungen zu erfüllen.
Die gezielte Skalierung kann die Ressourcennutzung optimieren und die Kosten auf folgende Weise senken:
- Stellt jeder Komponente nur die erforderlichen Ressourcen zur Verfügung und weist weniger anspruchsvollen Komponenten weniger Ressourcen zu.
- In Zeiten mit hohem Traffic werden zusätzliche Ressourcen hinzugefügt, um die Nutzerfreundlichkeit aufrechtzuerhalten.
- Entfernt nicht ausgelastete Ressourcen, ohne die Leistung zu beeinträchtigen.
Modularität verbessert auch die Wartbarkeit. Kleinere, eigenständige Einheiten sind leichter zu verstehen, zu debuggen und zu aktualisieren, was zu schnelleren Entwicklungszyklen und geringeren Risiken führen kann.
Modularität bietet zwar erhebliche Vorteile, Sie müssen aber die potenziellen Leistungseinbußen berücksichtigen. Die erhöhte Kommunikation zwischen den Modulen kann zu Latenz und Overhead führen. Streben Sie nach einem Gleichgewicht zwischen Modularität und Leistung. Ein stark modulares Design ist möglicherweise nicht universell geeignet. Wenn die Leistung entscheidend ist, kann ein engeres Zusammenspiel sinnvoll sein. Das Systemdesign ist ein iterativer Prozess, bei dem Sie Ihr modulares Design kontinuierlich überprüfen und optimieren.
Empfehlungen
Beachten Sie die Empfehlungen in den folgenden Abschnitten, um modulare Designs zu fördern.
Lose Kopplung beim Design berücksichtigen
Entwerfen Sie eine lose gekoppelte Architektur. Mit unabhängigen Komponenten mit minimalen Abhängigkeiten können Sie skalierbare und robuste Anwendungen erstellen. Bei der Planung der Grenzen für Ihre Dienste müssen Sie die Verfügbarkeits- und Skalierbarkeitsanforderungen berücksichtigen. Wenn eine Komponente beispielsweise Anforderungen hat, die sich von denen Ihrer anderen Komponenten unterscheiden, können Sie sie als eigenständigen Dienst entwerfen. Implementieren Sie einen Plan für glatte Fehler bei weniger wichtigen Unterprozessen oder Diensten, die sich nicht auf die Reaktionszeit der primären Dienste auswirken.
Entwicklung an Parallelität und Nebenläufigkeit orientieren
Entwerfen Sie Ihre Anwendung so, dass sie mehrere Aufgaben gleichzeitig unterstützt, z. B. die Verarbeitung mehrerer Nutzeranfragen oder die Ausführung von Hintergrundjobs, während Nutzer mit Ihrem System interagieren. Große Aufgaben in kleinere Teile aufteilen, die gleichzeitig von mehreren Dienstinstanzen verarbeitet werden können. Mit der Aufgabenparallelität können Sie Funktionen wie die automatische Skalierung verwenden, um die Ressourcenzuweisung in Produkten wie den folgenden zu erhöhen:
Modularität für flexible Ressourcenzuweisung ausbalancieren
Achten Sie nach Möglichkeit darauf, dass jede Komponente für bestimmte Vorgänge nur die erforderlichen Ressourcen (z. B. Arbeitsspeicher, Speicherplatz und Rechenleistung) verwendet. Eine zu hohe Ressourcenzuweisung kann zu unnötigen Kosten führen, während eine zu geringe Ressourcenzuweisung die Leistung beeinträchtigen kann.
Gut definierte Oberflächen verwenden
Sorgen Sie dafür, dass modulare Komponenten über klare, standardisierte Schnittstellen (z. B. APIs und Nachrichtenwarteschlangen) effektiv kommunizieren, um den Overhead durch Übersetzungsschichten oder überflüssigen Traffic zu reduzieren.
Zustandslose Modelle verwenden
Ein zustandsloses Modell kann dazu beitragen, dass Sie jede Anfrage oder Interaktion mit dem Dienst unabhängig von vorherigen Anfragen verarbeiten können. Dieses Modell erleichtert die Skalierbarkeit und Wiederherstellbarkeit, da der Dienst erweitert, verkleinert oder neu gestartet werden kann, ohne Daten zu verlieren, die für laufende Anfragen oder Prozesse erforderlich sind.
Komplementäre Technologien auswählen
Wählen Sie Technologien aus, die das modulare Design ergänzen. Prüfen Sie Programmiersprachen, Frameworks und Datenbanken auf ihre Modularität.
Weitere Informationen finden Sie in den folgenden Ressourcen:
Leistung kontinuierlich überwachen und verbessern
Dieses Prinzip im Bereich der Leistungsoptimierung des Google Cloud Well-Architected Framework enthält Empfehlungen, mit denen Sie die Leistung kontinuierlich überwachen und verbessern können.
Nachdem Sie Anwendungen bereitgestellt haben, können Sie die Leistung mithilfe von Protokollen, Tracing, Messwerten und Benachrichtigungen kontinuierlich überwachen. Wenn Ihre Anwendungen wachsen und weiterentwickelt werden, können Sie anhand der Trends in diesen Datenpunkten Ihre Leistungsanforderungen neu bewerten. Möglicherweise müssen Sie Teile Ihrer Anwendungen neu gestalten, um die Leistung zu erhalten oder zu verbessern.
Grundsatzübersicht
Für die kontinuierliche Leistungsverbesserung sind robuste Monitoringtools und ‑strategien erforderlich. Mit Cloud-Observierungstools können Sie wichtige Leistungskennzahlen wie Latenz, Durchsatz, Fehlerraten und Ressourcenauslastung erfassen. Cloud-Umgebungen bieten eine Vielzahl von Methoden, um detaillierte Leistungsbewertungen für die Anwendung, das Netzwerk und die Nutzerfreundlichkeit durchzuführen.
Die Leistungssteigerung ist ein fortlaufender Prozess, der einen vielseitigen Ansatz erfordert. Mit den folgenden wichtigen Mechanismen und Prozessen können Sie die Leistung steigern:
- Um eine klare Richtung vorzugeben und den Fortschritt zu verfolgen, sollten Sie Leistungsziele definieren, die mit Ihren Geschäftszielen übereinstimmen. Legen Sie SMART-Ziele fest: spezifisch, messbar, erreichbar, relevant und terminiert.
- Erfassen Sie KPI-Messwerte, um die Leistung zu messen und Bereiche mit Verbesserungspotenzial zu identifizieren.
- Verwenden Sie visualisierte Workflows in Monitoring-Tools, um Ihre Systeme kontinuierlich auf Probleme zu überwachen. Verwenden Sie Techniken zur Architekturprozesskartierung, um Redundanzen und Ineffizienzen zu identifizieren.
- Um eine Kultur der kontinuierlichen Verbesserung zu schaffen, bieten Sie Schulungen und Programme an, die die Weiterentwicklung Ihrer Mitarbeiter unterstützen.
- Um proaktive und kontinuierliche Verbesserungen zu fördern, sollten Sie Ihre Mitarbeiter und Kunden dazu anregen, fortlaufend Feedback zur Leistung Ihrer App zu geben.
Empfehlungen
Beachten Sie die Empfehlungen in den folgenden Abschnitten, um modulare Designs zu fördern.
Klare Leistungsziele und -messwerte definieren
Definieren Sie klare Leistungsziele, die auf Ihren Geschäftszielen basieren. Dazu ist ein umfassendes Verständnis der Architektur Ihrer Anwendung und der Leistungsanforderungen jeder Anwendungskomponente erforderlich.
Optimieren Sie zuerst die wichtigsten Komponenten, die sich direkt auf Ihre wichtigsten Geschäftsfunktionen und die Nutzerfreundlichkeit auswirken. Legen Sie spezifische und messbare Leistungsziele fest, damit diese Komponenten weiterhin effizient laufen und Ihre Geschäftsanforderungen erfüllen. Zu diesen Zielen können Antwortzeiten, Fehlerraten und Grenzwerte für die Ressourcennutzung gehören.
Dieser proaktive Ansatz kann Ihnen helfen, potenzielle Engpässe zu erkennen und zu beheben, die Ressourcenzuweisung zu optimieren und letztendlich eine nahtlose und leistungsstarke Umgebung für Ihre Nutzer zu schaffen.
Leistungsbewertung
Überwachen Sie Ihre Cloud-Systeme kontinuierlich auf Leistungsprobleme und richten Sie Benachrichtigungen für potenzielle Probleme ein. Mithilfe von Monitoring und Benachrichtigungen können Sie Probleme erkennen und beheben, bevor sie sich auf Ihre Nutzer auswirken. Mithilfe von Anwendungsprofilierung können Engpässe identifiziert und die Ressourcennutzung optimiert werden.
Sie können Tools verwenden, die eine effektive Fehlerbehebung und Netzwerkoptimierung ermöglichen. Mit Google Cloud Observability können Sie Bereiche mit hoher CPU-, Arbeitsspeicher- oder Netzwerknutzung identifizieren. Mit diesen Funktionen können Entwickler die Effizienz steigern, Kosten senken und die Nutzerfreundlichkeit verbessern. Im Network Intelligence Center werden Visualisierungen der Topologie Ihrer Netzwerkinfrastruktur angezeigt. So können Sie Pfade mit hoher Latenz identifizieren.
Anreize für kontinuierliche Verbesserungen schaffen
Schaffen Sie eine Kultur der kontinuierlichen Verbesserung, die sowohl der Anwendung als auch der Nutzerfreundlichkeit zugutekommen kann.
Bieten Sie Ihren Mitarbeitern Schulungs- und Weiterbildungsmöglichkeiten, mit denen sie ihre Fähigkeiten und ihr Wissen in Bezug auf Leistungstechniken in Cloud-Diensten verbessern können. Richten Sie eine Community of Practice (CoP) ein und bieten Sie Mentoring- und Coachingprogramme an, um die Weiterentwicklung der Mitarbeiter zu unterstützen.
Um eine reaktive Leistungsverwaltung zu vermeiden und eine proaktive Leistungsverwaltung zu fördern, sollten Sie kontinuierlich Feedback von Ihren Mitarbeitern, Kunden und Stakeholdern einholen. Sie können den Prozess gamifizieren, indem Sie KPIs zur Leistung erfassen und diese Messwerte den Teams regelmäßig in Form einer Bestenliste präsentieren.
Um die Leistung und die Nutzerzufriedenheit im Zeitverlauf zu verstehen, empfehlen wir Ihnen, das Nutzerfeedback quantitativ und qualitativ zu messen. Das HEART-Konzept kann Ihnen dabei helfen, Nutzerfeedback in fünf Kategorien zu erfassen:
- Zufriedenheit
- Engagement
- Akzeptanz
- Kundenbindung
- Erfolg
Mit einem solchen Framework können Sie Entwickler mit datengestütztem Feedback, nutzungsorientierten Messwerten, umsetzbaren Erkenntnissen und einem klaren Verständnis der Ziele motivieren.