Auf dieser Seite wird beschrieben, wie Sie Ihre Google Kubernetes Engine-Bereitstellungen (GKE) mit Gemini Cloud Assist, einem KI-basierten Assistenten für Google Cloud, optimieren können, um Leistung und Zuverlässigkeit zu verbessern. Gemini kann Ihnen unter anderem Empfehlungen geben, Code generieren und bei der Fehlerbehebung helfen.
Gemini Cloud Assist bietet unter anderem folgende Vorteile:
- Kosten senken: Inaktive Ressourcen identifizieren, Bereitstellungen anpassen und Autoscaling-Konfigurationen optimieren, um unnötige Ausgaben zu minimieren.
- Zuverlässigkeit und Stabilität verbessern: Potenzielle Probleme wie Versionsabweichungen oder fehlende Pod Disruption Budgets proaktiv erkennen, um Ausfallzeiten zu vermeiden und die Anwendungsresilienz zu gewährleisten.
- KI-/ML-Arbeitslasten optimieren: Unterstützung bei der Bereitstellung, Verwaltung und Optimierung von KI-/ML-Arbeitslasten in GKE.
- Problembehebung vereinfachen: Analysieren Sie Protokolle schnell und ermitteln Sie die Ursache von Fehlern, um Zeit und Aufwand zu sparen.
Diese Seite richtet sich an bestehende GKE-Nutzer sowie an Betreiber und Entwickler, die Cloud-Ressourcen bereitstellen und konfigurieren und Apps und Dienste bereitstellen. Weitere Informationen zu gängigen Rollen und Beispielaufgaben, auf die in Google Cloud -Inhalten verwiesen wird, finden Sie unter Häufig verwendete GKE Enterprise-Nutzerrollen und -Aufgaben.
Weitere Informationen dazu, wie und wann Gemini für Google Cloud Ihre Daten verwendet
Kosten
Gemini: Während der Vorschauphase ist die Nutzung von Gemini Cloud Assist kostenlos.
GKE: Für die Verwendung von Gemini Cloud Assist in GKE fallen keine zusätzlichen Kosten an.
Hinweise
Bevor Sie Gemini mit GKE verwenden können, müssen Sie die folgenden Voraussetzungen erfüllen.
-
Make sure that billing is enabled for your Google Cloud project.
- Bitten Sie Ihre Identitäts- und Kontoadministratoren, Ihnen die erforderlichen Berechtigungen für den Zugriff auf und die Änderung Ihrer GKE-Ressourcen zu gewähren.
- Folgen Sie der Anleitung im Leitfaden Gemini Cloud Assist einrichten, um Gemini Cloud Assist in Ihrem Projekt oder Ordner zu aktivieren. Ihrem Principal müssen bestimmte IAM-Rollen (Identity and Access Management) zugewiesen sein.
In diesem Leitfaden wird davon ausgegangen, dass Sie einen GKE-Cluster und vorzugsweise einige Bereitstellungen haben.
Gemini Cloud Assist fragen
Sie können Gemini Cloud Assist über die Google Cloud Console aufrufen. Mit Gemini Cloud Assist können Sie mithilfe von Prompts in natürlicher Sprache schnell und effizient Hilfe bei Aufgaben erhalten.
So öffnen Sie Cloud Assist über eine GKE-Seite:
Wählen Sie in der Google Cloud -Console auf der Seite für die Projektauswahl einGoogle Cloud -Projekt aus, in dem Sie Gemini Cloud Assist aktiviert haben.
Rufen Sie in der Google Cloud -Console eine bestimmte Seite in der Kubernetes Engine-Console auf.
Rufen Sie beispielsweise die Seite Kubernetes Engine – Übersicht auf.
Zur Seite „Kubernetes Engine – Übersicht“
Wenn Sie eine Frage zu einer bestimmten Ressource haben, rufen Sie zuerst die entsprechende Seite auf. Auf der Seite Cluster kann Gemini Cloud Assist Sie beispielsweise bei der Verwaltung Ihrer Cluster, der Überwachung des Clusterzustands und der Fehlerbehebung bei Clusterproblemen unterstützen. Wenn Sie Gemini auf einer bestimmten Konsolenseite verwenden, wird Kontext für Ihre Fragen bereitgestellt. Google Cloud Gemini kann diesen Kontext dann zusammen mit dem gesamten Projekt, an dem Sie gerade arbeiten, verwenden, um maßgeschneiderte und präzise Unterstützung zu bieten.
Klicken Sie in der Symbolleiste auf spark Gemini-KI-Chat öffnen oder schließen, um den Bereich „Gemini Cloud Assist“ zu öffnen.
Wenn Sie dazu aufgefordert werden und den Bedingungen zustimmen, klicken Sie auf Akzeptieren.
Geben Sie im Gemini-Bereich einen Prompt ein. Im nächsten Abschnitt finden Sie ein Beispiel für einen Workflow, in dem Gemini zur Fehlerbehebung verwendet wird.
Weitere Informationen zur Verwendung von Gemini in der Google Cloud Console finden Sie unter Gemini Cloud Assist verwenden.
Beispiel für die Fehlerbehebung mit Gemini
Gemini kann Ihnen bei der Fehlerbehebung in Ihren GKE-Diensten helfen.
Rufen Sie in der Google Cloud -Console die Seite Arbeitslasten auf.
Wählen Sie die Arbeitslast aus, für die Sie eine Fehlerbehebung ausführen möchten.
Klicken Sie auf den Tab Logs.
Klicken Sie in der Symbolleiste auf spark Gemini-KI-Chat öffnen oder schließen.
Geben Sie einen Prompt ein, um das Problem zu beschreiben. Beispiel: „Meine
accounts-db
-Datenbankanwendung weist eine hohe Latenz auf.“ Gemini fordert möglicherweise zusätzlichen Kontext an, z. B. den Typ der Datenbank oder den Umfang der Auswirkungen, etwa die Vorgänge und Nutzer, die von der Latenz betroffen sind.Gemini kann Ihnen dann Anleitungen zur Analyse der Logs geben und Vorschläge zur Fehlerbehebung machen.
Sehen Sie sich die Vorschläge an und befolgen Sie sie, um das Problem zu beheben.
Beispielprompts für Gemini Cloud Assist
In diesem Abschnitt finden Sie einige Anwendungsfälle aus der Praxis und Vorschläge für Prompts, die Sie an Gemini richten können. Die tatsächlichen Antworten, die Sie erhalten, können allgemein sein oder basierend auf dem individuellen Status IhrerGoogle Cloud -Umgebung personalisiert und umsetzbar sein. Die Antworten können Google Cloud Konsolenlinks zum Überprüfen und Verwalten Ihrer Cloud-Ressourcen sowie Links zur relevanten Dokumentation für weitere Informationen enthalten.
Kosten senken
In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Kosten senken können.
Eingabeaufforderung | Art der Antwort |
---|---|
„Wie kann ich Kosten für meine GKE-Cluster sparen, ohne die Leistung zu beeinträchtigen?“ |
|
„Ich möchte meinen my-docker-cluster -GKE-Cluster upgraden. Hast du Empfehlungen?“ |
Vorschläge zur Implementierung bestimmter Kubernetes-Konfigurationen und Best Practices, z. B.:
|
„In ein paar Wochen erwarte ich eine große Zugriffsspitze im my-docker-cluster -Cluster. Hast du Empfehlungen?“ |
|
„Für welche meiner GKE-Arbeitslasten ist HPA nicht aktiviert?“ | Die Liste der Arbeitslasten, für die das horizontale Pod-Autoscaling nicht aktiviert ist. |
Zuverlässigkeit und Stabilität verbessern
In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie die Zuverlässigkeit und Stabilität Ihrer GKE-Arbeitslasten verbessern können.
Eingabeaufforderung | Art der Antwort |
---|---|
„Wie kann ich meine GKE-Cluster zuverlässiger machen und Ausfallzeiten vermeiden?“ |
|
„Zeige mir, wie ich meine Arbeitslasten aus dem Namespace Default auf my-cluster verschieben kann.“ |
So gehts:
|
„Wie kann ich Hochverfügbarkeit für meine ausgeführten Pods sicherstellen?“ |
|
GKE für KI-/ML-Arbeitslasten optimieren
In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Hilfe beim Bereitstellen, Verwalten und Optimieren von KI-/ML-Arbeitslasten in GKE erhalten können.
Eingabeaufforderung | Art der Antwort |
---|---|
„Welche Knotenpoolkonfigurationen werden für das Ausführen von umfangreichem verteiltem TensorFlow-Training in GKE mit GPUs empfohlen?“ | Empfehlungen zur Optimierung des verteilten TensorFlow-ML-Trainings in GKE können Folgendes umfassen:
|
„Wie verwende ich GPUs in GKE für das Training?“ | Übersicht über die Schritte und Überlegungen zum Konfigurieren eines Clusters und von Arbeitslasten für die Verwendung von GPUs. |
„Gib mir ein Beispiel für die Bereitstellung eines Containers für die Bereitstellung von Modellen in GKE.“ | Ein Beispiel mit Beispielcode zum Bereitstellen eines Containers für die Bereitstellung von Modellen in GKE. Das Beispiel kann Best Practices enthalten und trägt zur Skalierbarkeit bei. |
„Welche Messwerte sollte ich im Blick behalten, um die Effektivität meiner Load-Balancing-Einrichtung für die Inferenz zu bewerten?“ | Die Liste der Messwerte, z. B. Traffic-Verteilung, Latenz, Fehlerraten, CPU- und Speicherauslastung, um Einblicke in die Leistung und den Zustand der Load-Balancing-Konfiguration zu erhalten. |
Fehlerbehebung vereinfachen
In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Logs schnell analysieren und die Ursache von Fehlern ermitteln können. So sparen Sie Zeit und Aufwand.
Eingabeaufforderung | Art der Antwort |
---|---|
„Worum geht es bei diesem Fehler?Readiness probe failed: Get "https://10…./abcd": context deadline exceeded (Client.Timeout exceeded while awaiting headers) “
|
Hier wird erklärt, dass das Kubelet die Bereitschaftsprüfung für den Container innerhalb des definierten Zeitlimits nicht ausführen konnte. Außerdem werden mögliche Ursachen und Maßnahmen zur Fehlerbehebung vorgeschlagen. |
„Warum stürzt meine Bereitstellung nettools mit dem Fehler ping: socket: Operation not permitted ab?“
|
Es wird erklärt, dass für den Befehl ping die Funktion CAP_NET_RAW Security Context erforderlich ist und dass Container in Kubernetes aus Sicherheitsgründen standardmäßig mit einer eingeschränkten Anzahl von Funktionen ausgeführt werden.
|
„Was bedeutet es, wenn mein Pod aufgrund des Fehlers Cannot schedule pods: No preemption victims found for incoming pod. nicht geplant werden kann?“
|
Hier wird erläutert, wie die Pod-Planung und ‑Unterbrechung in Kubernetes funktionieren. Hier finden Sie Schritte zur Fehlerbehebung, wenn kein Preemption-Opfer gefunden wurde. |
Nächste Schritte
- Weitere Informationen zum Schreiben besserer Prompts
- Informationen zur Verwendung des Gemini Cloud Assist-Bereichs
- Weitere Informationen
- Weitere Informationen dazu, wie Gemini für Google Cloud Ihre Daten verwendet