GKE-Dienste mithilfe von Gemini optimieren


Auf dieser Seite wird beschrieben, wie Sie Ihre Google Kubernetes Engine-Bereitstellungen (GKE) mit Gemini Cloud Assist, einem KI-basierten Assistenten für Google Cloud, optimieren können, um Leistung und Zuverlässigkeit zu verbessern. Gemini kann Ihnen unter anderem Empfehlungen geben, Code generieren und bei der Fehlerbehebung helfen.

Gemini Cloud Assist bietet unter anderem folgende Vorteile:

  • Kosten senken: Inaktive Ressourcen identifizieren, Bereitstellungen anpassen und Autoscaling-Konfigurationen optimieren, um unnötige Ausgaben zu minimieren.
  • Zuverlässigkeit und Stabilität verbessern: Potenzielle Probleme wie Versionsabweichungen oder fehlende Pod Disruption Budgets proaktiv erkennen, um Ausfallzeiten zu vermeiden und die Anwendungsresilienz zu gewährleisten.
  • KI-/ML-Arbeitslasten optimieren: Unterstützung bei der Bereitstellung, Verwaltung und Optimierung von KI-/ML-Arbeitslasten in GKE.
  • Problembehebung vereinfachen: Analysieren Sie Protokolle schnell und ermitteln Sie die Ursache von Fehlern, um Zeit und Aufwand zu sparen.

Diese Seite richtet sich an bestehende GKE-Nutzer sowie an Betreiber und Entwickler, die Cloud-Ressourcen bereitstellen und konfigurieren und Apps und Dienste bereitstellen. Weitere Informationen zu gängigen Rollen und Beispielaufgaben, auf die in Google Cloud -Inhalten verwiesen wird, finden Sie unter Häufig verwendete GKE Enterprise-Nutzerrollen und -Aufgaben.

Weitere Informationen dazu, wie und wann Gemini für Google Cloud Ihre Daten verwendet

Kosten

  • Gemini: Während der Vorschauphase ist die Nutzung von Gemini Cloud Assist kostenlos.

  • GKE: Für die Verwendung von Gemini Cloud Assist in GKE fallen keine zusätzlichen Kosten an.

Hinweise

Bevor Sie Gemini mit GKE verwenden können, müssen Sie die folgenden Voraussetzungen erfüllen.

In diesem Leitfaden wird davon ausgegangen, dass Sie einen GKE-Cluster und vorzugsweise einige Bereitstellungen haben.

Gemini Cloud Assist fragen

Sie können Gemini Cloud Assist über die Google Cloud Console aufrufen. Mit Gemini Cloud Assist können Sie mithilfe von Prompts in natürlicher Sprache schnell und effizient Hilfe bei Aufgaben erhalten.

So öffnen Sie Cloud Assist über eine GKE-Seite:

  1. Wählen Sie in der Google Cloud -Console auf der Seite für die Projektauswahl einGoogle Cloud -Projekt aus, in dem Sie Gemini Cloud Assist aktiviert haben.

    Zur Projektauswahl

  2. Rufen Sie in der Google Cloud -Console eine bestimmte Seite in der Kubernetes Engine-Console auf.

    Rufen Sie beispielsweise die Seite Kubernetes Engine – Übersicht auf.

    Zur Seite „Kubernetes Engine – Übersicht“

    Wenn Sie eine Frage zu einer bestimmten Ressource haben, rufen Sie zuerst die entsprechende Seite auf. Auf der Seite Cluster kann Gemini Cloud Assist Sie beispielsweise bei der Verwaltung Ihrer Cluster, der Überwachung des Clusterzustands und der Fehlerbehebung bei Clusterproblemen unterstützen. Wenn Sie Gemini auf einer bestimmten Konsolenseite verwenden, wird Kontext für Ihre Fragen bereitgestellt. Google Cloud Gemini kann diesen Kontext dann zusammen mit dem gesamten Projekt, an dem Sie gerade arbeiten, verwenden, um maßgeschneiderte und präzise Unterstützung zu bieten.

  3. Klicken Sie in der Symbolleiste auf spark Gemini-KI-Chat öffnen oder schließen, um den Bereich „Gemini Cloud Assist“ zu öffnen.

  4. Wenn Sie dazu aufgefordert werden und den Bedingungen zustimmen, klicken Sie auf Akzeptieren.

  5. Geben Sie im Gemini-Bereich einen Prompt ein. Im nächsten Abschnitt finden Sie ein Beispiel für einen Workflow, in dem Gemini zur Fehlerbehebung verwendet wird.

Weitere Informationen zur Verwendung von Gemini in der Google Cloud Console finden Sie unter Gemini Cloud Assist verwenden.

Beispiel für die Fehlerbehebung mit Gemini

Gemini kann Ihnen bei der Fehlerbehebung in Ihren GKE-Diensten helfen.

  1. Rufen Sie in der Google Cloud -Console die Seite Arbeitslasten auf.

    Zu Arbeitslasten

  2. Wählen Sie die Arbeitslast aus, für die Sie eine Fehlerbehebung ausführen möchten.

  3. Klicken Sie auf den Tab Logs.

  4. Klicken Sie in der Symbolleiste auf spark Gemini-KI-Chat öffnen oder schließen.

  5. Geben Sie einen Prompt ein, um das Problem zu beschreiben. Beispiel: „Meine accounts-db-Datenbankanwendung weist eine hohe Latenz auf.“ Gemini fordert möglicherweise zusätzlichen Kontext an, z. B. den Typ der Datenbank oder den Umfang der Auswirkungen, etwa die Vorgänge und Nutzer, die von der Latenz betroffen sind.

  6. Gemini kann Ihnen dann Anleitungen zur Analyse der Logs geben und Vorschläge zur Fehlerbehebung machen.

  7. Sehen Sie sich die Vorschläge an und befolgen Sie sie, um das Problem zu beheben.

Beispielprompts für Gemini Cloud Assist

In diesem Abschnitt finden Sie einige Anwendungsfälle aus der Praxis und Vorschläge für Prompts, die Sie an Gemini richten können. Die tatsächlichen Antworten, die Sie erhalten, können allgemein sein oder basierend auf dem individuellen Status IhrerGoogle Cloud -Umgebung personalisiert und umsetzbar sein. Die Antworten können Google Cloud Konsolenlinks zum Überprüfen und Verwalten Ihrer Cloud-Ressourcen sowie Links zur relevanten Dokumentation für weitere Informationen enthalten.

Kosten senken

In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Kosten senken können.

Eingabeaufforderung Art der Antwort
„Wie kann ich Kosten für meine GKE-Cluster sparen, ohne die Leistung zu beeinträchtigen?“
  • Empfehlungen, mit denen unterausgelastete Ressourcen wie inaktive Cluster identifiziert und entfernt werden können.
  • Ratschläge zum Aktivieren oder Anpassen von Autoscaling-Mechanismen.
  • Vorschläge, die auf potenzielle Einsparungen durch Konfigurationsprüfungen hinweisen, z. B. Aufbewahrungsrichtlinien für Logs.
„Ich möchte meinen my-docker-cluster-GKE-Cluster upgraden. Hast du Empfehlungen?“ Vorschläge zur Implementierung bestimmter Kubernetes-Konfigurationen und Best Practices, z. B.:
  • Ressourcenanforderungen und ‑limits für Pods definieren, um eine vorhersehbare Ressourcenzuordnung zu gewährleisten.
  • Dedizierte Namespaces zum Isolieren von Arbeitslasten verwenden
  • Implementieren Sie Budgets für Pod-Störungen, um dafür zu sorgen, dass während freiwilliger Störungen wie Knotenwartung oder Upgrades eine Mindestanzahl von Pod-Replikaten verfügbar ist.
  • Wartungsfenster planen, um geplante Unterbrechungen zu verwalten und unerwartete Ausfallzeiten zu minimieren.
  • Cluster in Release-Versionen registrieren, um GKE-Versionsupgrades zu verwalten.
„In ein paar Wochen erwarte ich eine große Zugriffsspitze im my-docker-cluster-Cluster. Hast du Empfehlungen?“
  • Strategien zum Skalieren der Anzahl von Anwendungs-Pods mithilfe des horizontalen Pod-Autoscalers.
  • Strategien zum Erhöhen der Ressourcen (CPU, Arbeitsspeicher) pro Pod mithilfe des vertikalen Pod-Autoscalers.
„Für welche meiner GKE-Arbeitslasten ist HPA nicht aktiviert?“ Die Liste der Arbeitslasten, für die das horizontale Pod-Autoscaling nicht aktiviert ist.

Zuverlässigkeit und Stabilität verbessern

In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie die Zuverlässigkeit und Stabilität Ihrer GKE-Arbeitslasten verbessern können.

Eingabeaufforderung Art der Antwort
„Wie kann ich meine GKE-Cluster zuverlässiger machen und Ausfallzeiten vermeiden?“
  • Identifiziert Versionsabweichungen in den Clustern und schlägt Maßnahmen zur Aufrechterhaltung der Kubernetes-Versionskompatibilität vor.
  • Empfehlungen zur Implementierung der Ressourcenisolierung.
  • Bietet Empfehlungen zum Konfigurieren von Budgets für Pod-Störungen, um eine Mindestanzahl von ausgeführten Pod-Replikaten während geplanter Wartungsarbeiten oder Upgrades aufrechtzuerhalten.
„Zeige mir, wie ich meine Arbeitslasten aus dem Namespace Default auf my-cluster verschieben kann.“ So gehts:
  • Zielcluster vorbereiten
  • Apps und Daten in den Zielcluster migrieren
  • Stellen Sie die Dienste mit minimaler Ausfallzeit um.
„Wie kann ich Hochverfügbarkeit für meine ausgeführten Pods sicherstellen?“
  • Eine detaillierte Anleitung, in der ein Deployment mit podAntiAffinity und mehreren Replikaten für Redundanz angegeben wird.
  • Vorschläge zum Festlegen von Ressourcenanfragen und ‑limits sowie zur Verwendung von horizontalem Pod-Autoscaling.

GKE für KI-/ML-Arbeitslasten optimieren

In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Hilfe beim Bereitstellen, Verwalten und Optimieren von KI-/ML-Arbeitslasten in GKE erhalten können.

Eingabeaufforderung Art der Antwort
„Welche Knotenpoolkonfigurationen werden für das Ausführen von umfangreichem verteiltem TensorFlow-Training in GKE mit GPUs empfohlen?“ Empfehlungen zur Optimierung des verteilten TensorFlow-ML-Trainings in GKE können Folgendes umfassen:
  • Auswahl der richtigen GPU- und Maschinentypen.
  • Autoscaling aktivieren
  • Netzwerkverbindung wird optimiert.
  • Verwendung von Frameworks für verteiltes Training
  • Kostensparmaßnahmen umsetzen
„Wie verwende ich GPUs in GKE für das Training?“ Übersicht über die Schritte und Überlegungen zum Konfigurieren eines Clusters und von Arbeitslasten für die Verwendung von GPUs.
„Gib mir ein Beispiel für die Bereitstellung eines Containers für die Bereitstellung von Modellen in GKE.“ Ein Beispiel mit Beispielcode zum Bereitstellen eines Containers für die Bereitstellung von Modellen in GKE. Das Beispiel kann Best Practices enthalten und trägt zur Skalierbarkeit bei.
„Welche Messwerte sollte ich im Blick behalten, um die Effektivität meiner Load-Balancing-Einrichtung für die Inferenz zu bewerten?“ Die Liste der Messwerte, z. B. Traffic-Verteilung, Latenz, Fehlerraten, CPU- und Speicherauslastung, um Einblicke in die Leistung und den Zustand der Load-Balancing-Konfiguration zu erhalten.

Fehlerbehebung vereinfachen

In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Logs schnell analysieren und die Ursache von Fehlern ermitteln können. So sparen Sie Zeit und Aufwand.

Eingabeaufforderung Art der Antwort
„Worum geht es bei diesem Fehler?
Readiness probe failed: Get "https://10…./abcd": context deadline exceeded (Client.Timeout exceeded while awaiting headers)
Hier wird erklärt, dass das Kubelet die Bereitschaftsprüfung für den Container innerhalb des definierten Zeitlimits nicht ausführen konnte. Außerdem werden mögliche Ursachen und Maßnahmen zur Fehlerbehebung vorgeschlagen.
„Warum stürzt meine Bereitstellung nettools mit dem Fehler ping: socket: Operation not permitted ab?“ Es wird erklärt, dass für den Befehl ping die Funktion CAP_NET_RAW Security Context erforderlich ist und dass Container in Kubernetes aus Sicherheitsgründen standardmäßig mit einer eingeschränkten Anzahl von Funktionen ausgeführt werden.
„Was bedeutet es, wenn mein Pod aufgrund des Fehlers Cannot schedule pods: No preemption victims found for incoming pod. nicht geplant werden kann?“ Hier wird erläutert, wie die Pod-Planung und ‑Unterbrechung in Kubernetes funktionieren. Hier finden Sie Schritte zur Fehlerbehebung, wenn kein Preemption-Opfer gefunden wurde.

Nächste Schritte