CO2-Bilanz von Google Cloud reduzieren

In diesem Dokument wird der Google Cloud-Ansatz für ökologische Nachhaltigkeit erläutert. Es enthält Informationen und andere Ressourcen, mit denen Sie Ihre CO2-Bilanz in Verbindung mit Google Cloud nachvollziehen können, sowie Methoden, mit denen Sie diese Bilanz verbessern oder optimieren können. Die Zielgruppe für dieses Dokument umfasst:

  • Entwickler, die Anwendungen mit einer minimalen CO2-Bilanz erstellen möchten.
  • Infrastruktur- und andere technische Teams, die ihre aktuelle CO2-Bilanz verstehen und Möglichkeiten zur Verringerung dieser Bilanz ermitteln wollen.

In diesem Dokument wird davon ausgegangen, dass Sie mit Google Cloud und dem Ausführen von VM-Arbeitslasten vertraut sind.

Informationen zu Cloud-CO2-Emissionen

Google ist seit 2007 CO2-neutral und hat sich verpflichtet ab 2030 nur noch CO2-freie Energie zu nutzen. Die Rechenzentren von Google, einschließlich jener, die Google Cloud-Dienste ausführen, verbrauchen außerdem viel weniger Energie als typische Rechenzentren. Aus diesem Grund kann Ihnen Google Cloud helfen, die CO2-Bilanz Ihrer IT zu verbessern.

Google betreibt mehrere Cloud-Regionen, die über ein globales Netzwerk von Rechenzentren bereitgestellt werden. Diese Rechenzentren verbrauchen vom lokalen Netz bereitgestellten Strom, um Cloud-Dienste auszuführen. Die Umweltauswirkungen des Stroms, der vom lokalen Netz bereitgestellt wird, wird anhand der Kohlenstoffintensität des Netzes gemessen. Die Kohlenstoffintensität des Netzes gibt an, wie viel CO2 von den Kraftwerken ausgestoßen wird, die Strom für das Netz erzeugen.

Die Umweltauswirkungen sind aufgrund von Faktoren wie unterschiedlichem Energiemix und Produktionseffizienz nicht über alle Rechenzentrumsstandorte hinweg gleich. Seit 2017 beschafft Google auch erneuerbare Energie, die dem Strom entspricht, den es im selben Jahr weltweit verbraucht. Dazu werden Strombezugsverträge (PPAs) verwendet. Diese Verträge führen zur Produktion von CO2-freier Energie, die Google zuzuschreiben ist und die in die Netze gelangt, aus denen unsere Rechenzentren Strom verbrauchen.

Die Umweltauswirkungen des von den Google-Rechenzentren verbrauchten Stroms werden durch die Kombination aus der Kohlenstoffintensität des Netzes und der Energie aus CO2-freien Energiequellen bestimmt, die Google zugerechnet werden. Google hat den Messwert CO2-freier Energieanteil (CFE%) eingeführt, der aus diesen beiden Elementen berechnet wird. CFE% beschreibt den durchschnittlichen stündlichen CO2-freien Energieverbrauch für jede Region und gibt den durchschnittlichen Prozentsatz der Zeit an, in der Ihre Anwendung mit CO2-freier Energie läuft. Aufgrund einer saubereren Energieversorgung produzieren Regionen mit einem höheren CFE% weniger Kohlenstoffemissionen als Regionen mit einem niedrigeren CFE% bei gleicher Arbeitslast.

Zur Senkung Ihres CO2-Ausstoßes müssen Sie den Stromverbrauch Ihrer Cloud-Arbeitslasten aus kohlenstoffbasierten Quellen reduzieren. Zum Senken Ihres CO2-Ausstoßes empfehlen wir die folgenden primären Strategien:

  1. Wählen Sie Wolkenregionen mit einem höheren durchschnittlichen stündlichen CFE% und einer geringeren Kohlenstoffintensität im Netz. Für Regionen, die denselben CFE%-Wert aufweisen, wird die Kohlenstoffintensität des Netzes verwendet, um die Emissionsleistung dieser Regionen weiter zu vergleichen.
  2. Cloud-Arbeitslasten optimieren, um CO2-Emissionen zu reduzieren. Erhöhen Sie beispielsweise die Effizienz, indem Sie elastische Cloud-Dienste und Autoscaling-Features verwenden, um nicht verwendete Rechenressourcen zu minimieren und Batch-Arbeitslasten in Zeiten auszuführen, in denen die Grid-CO2-Intensität niedriger ist.
  3. Legen Sie organisatorische Richtlinien fest, um den Standort von Cloud-Ressourcen auf sauberere Regionen zu beschränken.

Informationen zur CO2-Bilanz

Google Cloud bietet mit CO₂-Bilanz ein Tool an, mit dem Sie die CO2-Bilanz Ihrer Google Cloud-Nutzung nachvollziehen können. CO₂-Bilanz liefert die Gesamtemissionen auf der Grundlage der Kohlenstoffintensität des lokalen Stromnetzes. Der Bericht ordnet die Emissionen außerdem den Google Cloud-Projekten zu, die Sie besitzen, und den Cloud-Diensten, die Sie nutzen. Die Emissionsdaten werden gemäß der Methode für die Berichterstattung über die CO₂-Bilanz von Google gemeldet. Als Google-Cloud-Kunde können Sie damit die Berichtsanforderungen des Greenhouse Gas (GHG) Protocol Scope 3 Standard erfüllen. Die Daten der CO2-Bilanz können Sie zur weiteren Analyse in BigQuery exportieren.

Sie können das Console Footprint-Dashboard und den BigQuery-Export verwenden, um Ihre standortbasierten Emissionen infolge der Verwendung von Google Cloud-Diensten zu verstehen. Mithilfe dieser Daten können Sie die CO2-Bilanz verschiedener Google Cloud-Dienste vergleichen. Wenn Sie beispielsweise die relativen Emissionen nachvollziehen möchten, können Sie die Gesamtemissionen von zwei oder mehr Diensten vergleichen, die in derselben Cloud-Region ausgeführt werden.

Geeignetste Cloud-Regionen auswählen

Die Auswahl sauberer Cloud-Regionen für die Ausführung von Arbeitslasten ist eine der einfachsten und effektivsten Möglichkeiten, den CO2-Ausstoß zu reduzieren. Google veröffentlicht CO2-Daten für alle Cloud-Regionen, einschließlich des CFE% und der Kohlenstoffintensität des lokalen Stromnetzes. Zur Reduzierung Ihrer Gesamtemissionen sollten Sie nach Möglichkeit Regionen mit höheren CFE% auswählen. Damit Sie sauberere Regionen auswählen können, bietet Google Cloud für einige Standortauswahlen der Cloud Console und einige der Seiten "Standorte" der Google Cloud-Dokumentation den Indikator Niedriger CO₂-Wert. Informationen zu den Kriterien, die eine Region erfüllen muss, um diesen Indikator zu erhalten, finden Sie unter CO2-freie Energie für Google Cloud-Regionen.

Wenn mehrere Regionen einen ähnliche CFE% aufweisen, vergleichen Sie ihre Kohlenstoffintensität im Netz. Der Vergleich der Kohlenstoffintensität im Netz verschiedener Regionen ist auch wichtig, wenn man sich auf standortbezogene Emissionsminderungen konzentriert. Bei einem ähnlichen CFE%-Wert könnte das Netz beispielsweise entweder von Kohlekraftwerken oder von Gaskraftwerken gespeist werden. Die Kohlenstoffintensität im Netz spiegelt diese Mischung wider und hilft Ihnen, das Netz mit den geringsten Kohlenstoffemissionen auszuwählen.

Niedrige Emissionen können eine von vielen Anforderungen sein, die Sie bei der Auswahl einer Region berücksichtigen müssen. So müssen Sie beispielsweise die Verfügbarkeit bestimmter Google Cloud-Dienste, die Preise, die Anforderungen an den Datenstandort und die Bereitstellungslatenz für Ihre Nutzer berücksichtigen. Die Region mit dem höchsten CFE% ist für Ihren Anwendungsfall möglicherweise nicht geeignet. Wählen Sie zum Sicherstellen der niedrigsten Emissionen die Region mit dem höchsten CFE% aus, die alle Ihre Anforderungen erfüllt.

Verwenden Sie zur Vereinfachung der Regionsauswahl die Google Cloud-Regionsauswahl, um basierend auf CO2-Bilanz, Preis und Latenz die besten Cloud-Regionen zu ermitteln, die Ihren Anforderungen entsprechen. Weitere Informationen zur Google Cloud-Regionsauswahl finden Sie unter Geeignete Google Cloud-Region auswählen.

Wenn Ihre Organisation den Nutzern Auswahlmöglichkeiten für Cloud-Regionen bietet, können Sie auch eine Organisationsrichtlinie festlegen, um Standorte auf Regionen mit guter CO2-Bilanz zu beschränken.

Geeignetste Cloud-Dienste auswählen

Google Cloud bietet eine Reihe von Cloud-Diensten, die für verschiedene IT-Arbeitslasten geeignet sind. Damit Ihre vorhandene CO2-Bilanz verbessert wird, sollten Sie VM-Arbeitslasten von einer weniger energieeffizienten Infrastruktur wie einem lokalen Rechenzentrum zu Compute Engine migrieren. Informationen zum Migrieren von VMs zu Google Cloud von lokalen Rechenzentren und verschiedenen Cloud-Umgebungen finden Sie unter VMs mit Migrate for Compute Engine migrieren.

Viele Arbeitslasten erfordern keine VMs. Stattdessen können Sie sie mit anderen vollständig verwalteten Diensten bereitstellen, die für verschiedene Arbeitslasttypen vorgesehen sind. Diese Dienste haben häufig integrierte Features für Autoscaling und Größenanpassung, mit denen Leistung und optimiert werden. Cloud Run ist beispielsweise eine vollständig serverlose Umgebung, in der containerisierte Anwendungen schneller und mit weniger inaktiven Ressourcen skaliert werden als beim Ausführen eines vergleichbaren Anwendungspaket auf VMs. Weniger inaktive Ressourcen bedeutet niedrigere Kosten und eine bessere CO2-Bilanz.

Sehen Sie sich die folgenden Angebote für gängige Arbeitslasttypen an. Die Liste der Dienste ist nicht vollständig. Sie erläutert jedoch, wie verschiedene verwaltete Dienste die Nutzung von Cloud-Ressourcen optimieren können (oft automatisch), wodurch gleichzeitig die Cloud-Kosten reduziert werden und die CO2-Bilanz verbessert wird.

  • Cloud Run: Ein serverloses Angebot zum Ausführen von containerisierten Anwendungen in der Sprache Ihrer Wahl. Es ermöglicht das schnelle Autoscaling Ihrer Anwendung von null auf N Containerinstanzen (je nach Traffic). Wenn kein Traffic vorhanden ist, verwendet Ihre Anwendung null Rechenressourcen für die Bereitstellung. Der Dienst ist auf die Verarbeitung von stoßweisen Traffic-Mustern ausgelegt und optimiert die Nutzung von Rechenressourcen entsprechend.
  • Cloud Functions: Ein serverloses FaaS-Angebot (Function as a Service). Es wird in der gleichen Infrastruktur wie Cloud Run und App Engine ausgeführt, die die Autoscaling-Funktion von null aus auch auf Cloud Functions erweitert.
  • Google Kubernetes Engine (GKE): Ein Cloud-Dienst, der verwaltete Kubernetes-Umgebungen bereitstellt. Im Vergleich zur direkten VM-Nutzung kann das Ausführen von containerisierten Arbeitslasten mithilfe von Kubernetes-Umgebungen in GKE nicht verwendete Cloud-Ressourcen minimieren, was zu geringeren Cloud-Kosten und einer besseren CO2-Bilanz für Ihre Arbeitslasten führt.
  • BigQuery: Ein serverloses Cloud Data Warehouse, das die Abfrage großer Datasets im Petabyte-Bereich unterstützt. Durch die Unterstützung vieler Nutzer in einer großen mehrmandantenfähigen Infrastruktur nutzt BigQuery Rechenressourcen mit großen Einsparungen durch Skaleneffekte. Die BigQuery-Architektur trennt Speicher und Computing, wodurch Rechenressourcen effizient zugewiesen werden, um die Datenspeicherung getrennt von der Abfrageausführung zu skalieren. BigQuery weist Rechenressourcen (Slots genannt) nach Bedarf dynamisch zu, um Abfragen auszuführen. Die faire Planung weist die Slot-Kapazität automatisch projektübergreifend und beim Ausführen von Abfragen nach Bedarf zu.

Möglicherweise haben Sie andere Arbeitslasten, für die noch VMs erforderlich sind. Wenn VMs erforderlich sind, vermeiden Sie eine Überdimensionierung über den benötigten Umfang hinaus und vermeiden Sie, dass nicht verwendete Ressourcen ausgeführt werden, da dies zu höheren Kosten und Emissionen führen kann.

Inaktive Cloud-Ressourcen minimieren

Möglicherweise werden Sie auch feststellen, dass die Kostenoptimierungsmethoden, die inaktive (oder die ineffiziente Nutzung von) Cloud-Ressourcen reduzieren, auch zu einer Verbesserung der CO2-Bilanz beitragen. Inaktive Ressourcen verursachen Verschwendung durch unnötige Kosten und Emissionen. Betrachten Sie folgende Arten von nicht verwendeten Ressourcen:

  1. Nicht verwendete, aktive Cloud-Ressourcen, z. B. VM-Instanzen, die nicht beendet werden, wenn eine Arbeitslast abgeschlossen ist.
  2. Übermäßig bereitgestellte Ressourcen, z. B. die Verwendung von mehr VMs oder größeren VM-Maschinentypen als für eine Arbeitslast erforderlich.
  3. Nicht optimale Architektur oder Workflow, z. B. Lift-and-Shift-Anwendungen, die in die Cloud migriert (aber nicht für die Cloud optimiert wurden), oder Speicher- und Datenverarbeitungsinfrastruktur, die nicht für die Datenverarbeitung und analytische Arbeitslasten getrennt wurden.

Nicht verwendete und überdimensionierte VM-Ressourcen haben in der Regel die größten Auswirkungen auf unnötige Kosten und eine schlechtere CO2-Bilanz. Denken Sie darüber nach, wie Sie inaktive VM-Kapazitäten und andere nicht verwendete Cloud-Ressourcen durch Prozesse zur Automatisierung, Überwachung und Optimierung von Arbeitslasten minimieren können. Diese Themen werden in diesem Dokument nicht behandelt. Es gibt jedoch einfache Praktiken, die einen großen Einfluss auf Ihre Kosten und Ihre CO2-Bilanz haben können. Einige dieser Praktiken werden durch Active Assist ermöglicht, eine Lösung, die die folgenden Arten von automatisierten Empfehlungen zur Optimierung der Cloud-Nutzung bietet:

  1. Inaktive VM-Ressourcen identifizieren und löschen: Prüfen Sie in der Cloud Console regelmäßig auf Empfehlungen zu inaktiven Ressourcen wie nicht verwendeten Laufwerken. Sie können Empfehlungen zu inaktiven Ressourcen auch über die gcloud CLI oder über die API aufrufen. Nachdem Sie sichergestellt haben, dass die inaktiven Ressourcen nicht mehr benötigt werden, können Sie sie löschen, um Kosten und Emissionen zu verringern.
  2. VM-Instanzen anpassen: Passen Sie die Größe der VMs entsprechend ihrer Ressourcennutzung an. Prüfen Sie dazu regelmäßig in der Cloud Console auf Größenempfehlungen. Durch die Anpassung der Größe kann Verschwendung aufgrund von Überdimensionierung vermieden werden. Größenempfehlungen können auch mit der gcloud CLI oder der API aufgerufen werden.
  3. Inaktive VMs identifizieren und löschen: Verwenden Sie den Recommender für inaktive VMs, um VM-Instanzen zu identifizieren, die nicht verwendet wurden. Sie können inaktive VMs löschen, nachdem Sie sichergestellt haben, dass sie nicht mehr benötigt werden.
  4. Unbeaufsichtigte Projekte freigeben oder entfernen: Verwenden Sie den Recommender für unbeaufsichtigte Projekte, um unbeaufsichtigte Projekte mit wenig oder keiner Verwendung zu ermitteln und beenden Sie diese Projekte nach Möglichkeit.
  5. VMs so planen, dass sie bei Bedarf ausgeführt werden: Wenn VMs nur zu bestimmten Zeiten benötigt werden, sollten Sie VM-Instanzen so planen, dass sie automatisch gestartet und beendet werden.
  6. Inaktive und überdimensionierte Cloud SQL-Instanzen korrigieren: Verwenden Sie Active Assist, um überdimensionierte und inaktive Cloud SQL for MySQL-, PostgresSQL- und SQL Server-Instanzen zu identifizieren. Nach der Identifizierung können Sie die Größe dieser Instanzen anpassen oder die Instanzen löschen.

Eine nicht optimale Architektur führt zu einer weniger effizienten Nutzung von Cloud-Ressourcen. Obwohl Architekturprobleme bei Anwendungen auftreten können, die für die Cloud erstellt wurden, treten diese Probleme am häufigsten bei lokalen Arbeitslasten auf. Beispiel: monolithische Anwendungen, die ohne oder nur mit minimaler Optimierung (als Lift-and-Shift bezeichnet) zu Google Cloud migriert wurden. Die folgenden Vorgehensweisen können Sie bei der Optimierung Ihrer Architektur unterstützen:

  1. Ressourcen erstellen, wenn sie benötigt werden: Obwohl Cloud-Ressourcen flexibel sind, erhalten Sie eingeschränkte Effizienzvorteile, wenn Arbeitslasten auf festen Ressourcen bereitgestellt werden, die unabhängig von der tatsächlichen Nutzung kontinuierlich ausgeführt werden. Identifizieren Sie Möglichkeiten, Ressourcen nach Bedarf zu erstellen (und zu löschen), z. B. mit VM-Planung oder elastischen Features innerhalb von Cloud-Diensten. Über elastische Features können Sie beispielsweise mit Compute Engine VMs automatisch skalieren, auf denen zustandslose Webserver ausgeführt werden, oder mit Dataflow die Worker für eine Streamingdatenpipeline automatisch skalieren.
  2. Arbeitslasten containerisieren: Erwägen Sie, Ihre Arbeitslasten in Container zu verpacken und einen Container-Orchestrator wie Google Kubernetes Engine (GKE) zu verwenden, um die Container effizient auszuführen. Wenn Sie GKE verwenden, können Sie Container auf der Grundlage ihrer Ressourcenanforderungen effizient in einem Cluster von VMs planen. Mehrere Container können sich auch die Ressourcen einer einzelnen VM teilen, wenn ihre Ressourcenanforderungen dies zulassen.

Migrate for GKE und Anthos bietet einen vereinfachten Pfad für die Migration von Arbeitslasten von VMs zu Containern. Die Migration von VMs zu Containern kann ein erster Schritt für die Anwendungsmodernisierung sein. Spätere Schritte können Kostenoptimierungsverfahren umfassen, die auch Emissionen reduzieren und Anwendungen in Mikrodienste refaktorieren.

Wenn Sie vollständige Konfigurationsflexibilität und Kontrolle über die Containerorchestrierung benötigen, können Sie GKE verwenden. Wenn Sie eine containerisierte Webanwendung oder einen Mikrodienst ausführen müssen und keine vollständige Kubernetes-Umgebung benötigen, können Sie Cloud Run verwenden. Cloud Run abstrahiert die Komplexität der Ausführung von Containern. Es konzentriert sich stattdessen auf die Bereitstellung einer besseren Nutzererfahrung für Entwickler. Einen detaillierteren Vergleich finden Sie unter Google Kubernetes Engine und Cloud Run im Vergleich.

  1. Monolithische Anwendungen in Mikrodienste refaktorieren: Monolithische Anwendungen kombinieren alle ihre Module in einem einzigen Programm, was die Zuordnung von Ressourcen zur Ausführung bestimmter Module erschwert. Monolithische Anwendungen können daher schwierig zu betreiben und effizient zu skalieren sein und haben daher möglicherweise eine größere CO2-Bilanz als eine auf Mikrodiensten basierende Implementierung.

    Stellen Sie sich eine monolithische E-Commerce-Website mit einem Einkaufswagendienst und einem Zahlungsdienst vor. Nutzer interagieren möglicherweise mehrere Male in einer Sitzung mit dem Einkaufswagendienst und interagieren mit dem Zahlungsdienst nur am Ende einer Sitzung. Die beiden Dienste haben aufgrund ihrer unterschiedlichen Traffic- und Lasteigenschaften unterschiedliche Ressourcenanforderungen, können aber nicht separat ausgeführt werden, da sie beide Teil derselben monolithischen Anwendung sind. Wenn die monolithische Anwendung auf VMs ausgeführt wird, fügt jede zusätzliche VM Rechenressourcen zum Ausführen beider Dienste hinzu, auch wenn nur ein Dienst die Bereitstellungskapazität erhöhen muss.

    Im Gegensatz zu monolithischen Anwendungen unterteilen Mikrodienste Anwendungsmodule in eigene, einfache Programme, die mithilfe von Netzwerkaufrufen integriert werden. Mikrodienste können unabhängig voneinander skaliert werden und verwenden unterschiedliche Ressourcenformen (z. B. VM-Maschinentypen, Cloud Run-vCPU- und -Arbeitsspeicherzuweisungen oder App Engine-Instanztypen), die für die Ausführung dieses Dienstes geeignet sind. Die Skalierung von Mikrodiensten führt zu einer effizienteren Nutzung von Cloud-Ressourcen durch detaillierte Skalierung und geringere Überdimensionierung, was zu niedrigeren Kosten und weniger Emissionen führt. Weitere Informationen finden Sie unter Monolithische Anwendung in Mikrodienste refaktorieren.

  2. Verwenden Sie Cloud-Dienste, die Speicher- und Rechenressourcen entkoppeln: Einige lokale (und cloudbasierte) Datenverarbeitungs- und Analysearbeitslasten, z. B.Apache Hadoop und Apache Spark, nutzen häufig die gleiche Infrastruktur für Datenspeicherung und -verarbeitung. Wenn Sie einen großen Infrastruktur für die Speicherung von Daten haben, während Sie dieselbe für Spitzen-Computing-anforderungen größenmäßig anpassen müssen, ist die Auslastung der Rechenressourcen häufig gering. Eine geringe Auslastung führt zu mehr inaktiven Ressourcen, wodurch die Kosten steigen und unnötigerweise mehr Emissionen erzeugt werden.

    Wenn Sie diese Arbeitslasten zu Google Cloud migrieren, empfehlen wir die Verwendung verwalteter Dienste, die die Speicher- und Computing-Infrastruktur trennen, zum Beispiel:

    • BigQuery: BigQuery ist ein serverloses Data Warehouse im Petabyte-Bereich als Dienst. Sie können BigQuery für SQL-basierte Analysearbeitslasten verwenden. Der Dataset-Speicher in BigQuery ist von den Compute-Ressourcen entkoppelt. Diese Trennung bedeutet, dass der BigQuery-Speicher so skaliert wird, dass ein praktisch unbegrenzter Speicher für eine effiziente Ressourcennutzung bereitgestellt wird. Dies bedeutet auch, dass Datasets direkt freigegeben werden können, ohne Daten zu duplizieren oder einen neuen Cluster hochzufahren.
    • Dataproc: Dataproc ist ein verwalteter Dienst für Hadoop- und Spark-Arbeitslasten. Viele lokale Hadoop- und Spark-Bereitstellungen verwenden Rechencluster, die immer aktiviert sind, unabhängig von den Nutzungsmerkmalen. Sie können zwar langlebige Cluster mit Dataproc erstellen, aber wir empfehlen die Erstellung sitzungsspezifischer Cluster, wenn Sie Jobs ausführen müssen. Daten, die von Dataproc-Jobs gelesen oder geschrieben werden, werden separat in dedizierten Speicherdiensten wie Cloud Storage und Bigtable verwaltet. Da Sie keine Umgebung für Hadoop-Speicher haben müssen, reduzieren Sie die operative Komplexität, die Kosten und die Emissionen, auch wenn keine Jobs ausgeführt werden.
    • Cloud Spanner: Spanner ist ein verteilter, global skalierbarer SQL-Datenbankdienst, der das Computing von der Speicherung entkoppelt, sodass diese Ressourcen separat skaliert werden können. Mit dem Autoscaling-Tool können Sie auch die Anzahl der Rechenressourcenknoten für Spanner-Instanzen automatisch skalieren. Durch das Autoscaling von Spanner-Bereitstellungen kann die Infrastruktur automatisch angepasst und skaliert werden, um die Lastanforderungen zu erfüllen. Außerdem werden die Kosten und der CO2-Ausstoß bei geringen Lasten reduziert.
  3. Arbeitslasten zu verwalteten Diensten migrieren: Verwaltete Angebote können nicht verwendete Ressourcen minimieren, indem sie Arbeitslasten automatisch skalieren. Außerdem bieten sie andere Features, mit denen Sie Ihre Infrastrukturanforderungen reduzieren können. Weitere Informationen finden Sie weiter oben in diesem Dokument unter Geeignetste Cloud-Dienste auswählen.

Emissionen von Batch-Arbeitslasten reduzieren

Im Gegensatz zu vielen Online-Bereitstellungsarbeitslasten sind Batch-Arbeitslasten in Bezug auf den Ausführungsort und den Zeitpunkt der Ausführung häufig flexibel. Beispiele für Batch-Arbeitslasten sind Hochleistungs-Computing-Jobs (HPC) für wissenschaftliche Berechnungen, tägliche Kontoabgleiche oder das Erstellen von Produktempfehlungen für Marketing-E-Mails.

Ähnlich wie bei anderen Arbeitslasten empfehlen wir die Ausführung von Batch-Arbeitslasten in Regionen mit höherem CFE%, um Ihre gesamte CO2-Bilanz zu optimieren. Wenn Sie flexibel entscheiden können, wann Batchjobs ausgeführt werden sollen, können Sie Ihre CO2-Bilanz weiter reduzieren, indem Sie die Jobs zu Zeiten ausführen, die mit einer geringeren Kohlenstoffintensität im Netz zusammenfallen. Um stündliche Daten zur Kohlenstoffintensität an verschiedenen globalen Standorten, an denen sich Google Cloud-Regionen befinden, einzusehen, nutzen Sie die von Tomorrow betriebene Website electricityMap.

Batch-Arbeitslasten sollten definitionsgemäß latenzunabhängig sein. Es kann jedoch Abhängigkeiten von zugehörigen Systemen (z. B. Datenquellen und -senken) geben, die einen unerwünschten Netzwerkaufwand verursachen. Diese Abhängigkeit kann für Jobs vorhanden sein, die Teil einer größeren Anwendung oder eines größeren Workflows sind, z. B. ETL-Jobs (Extract, Transform and Load), die Daten aus einem oder mehr Quellsystemen lesen und dann transformierte Daten in ein Data Warehouse schreiben. Wenn der ETL-Job große Datenmengen zwischen Cloud-Regionen verarbeitet und überträgt, kann es aufgrund der Auswirkungen auf die Netzwerkleistung und der erhöhten Kosten für ausgehenden regionenübergreifenden Traffic unpraktisch oder kostspielig sein, Jobs separat auszuführen.

Wir empfehlen, dass Sie die folgenden Arten von Batch-Arbeitslasten in CO₂-armen Regionen auszuführen:

  1. Eigenständige Batch-Arbeitslasten: Stellen Sie sich eine eigenständige HPC-Arbeitslast vor, bei der Sie die Region mit den besten Preis- und Emissionsmerkmalen für Ihre Bedürfnisse auswählen, Speicher- und Rechendienste in dieser Region nutzen und die Analyseergebnisse direkt herunterladen. In diesem Szenario gibt es keinen regionsübergreifenden Traffic, der über das Abrufen der Analyseergebnisse hinaus zu Leistungseinbußen im Netz oder Kosten für den ausgehenden Traffic führen könnte.
  2. Batch-Arbeitslasten, die eine minimale Datenübertragung mit anderen Cloud-Regionen erfordern: Zum Beispiel eine API, die Produktempfehlungen aus einem ML-Modell bietet. Die API kann in mehreren Cloud-Regionen gehostet werden, um den Nutzern niedrige Latenzzeiten zu bieten. Die ML-Modelle könnten in regelmäßigen Abständen anhand von Clickstream-Daten aus Browsern als zentraler Batch-Prozess trainiert und in jede Cloud-Region kopiert werden, in der die API gehostet wird. In diesem Szenario sind die Ausgabemodell-Artefakte von Trainingsjobs klein, vielleicht einige zehn Megabyte groß.

    In diesem Szenario werden Clickstream-Daten zum Trainieren von ML-Modellen direkt von Browsern an die Cloud-Region gesendet, in der das ML-Back-End gehostet wird. Wenn das ML-Back-End eine neue Reihe von Modellen trainiert, ist die Datenübertragung zum Kopieren der Modelle in andere Cloud-Regionen relativ klein (möglicherweise ein paar Hundert Megabyte, wenn zehn Modelle kopiert werden müssen).

Empfehlungen

In der folgenden Tabelle sind die Empfehlungen zur Optimierung der CO2-Bilanz bei der Nutzung von Google Cloud zusammengefasst:

Thema Empfehlungen
Informationen zu Cloud-CO2-Emissionen

Erfahren Sie, wie der CO2-freie Energieanteil (CFE%) den CO2-freien Energieverbrauch von Cloud-Regionen beschreibt.

Die wichtigsten Strategien zur Verringerung Ihrer CO2-Bilanz.

Informationen zur CO2-Bilanz Verwenden Sie das Tool CO₂-Bilanz, um die CO₂-Bilanz Ihrer Nutzung von Google Cloud zu verstehen.
Geeignetste Cloud-Regionen auswählen

Verwenden Sie die Google Cloud-Regionsauswahl, um die besten Cloud-Regionen in Bezug auf CO2-Bilanz, Preis und Latenz zu bestimmen.

Sie können Organisationsrichtlinien erstellen, um die Nutzung auf Regionen mit niedriger CO₂-Bilanz zu beschränken.

Geeignetste Cloud-Dienste auswählen

VMs von weniger effizienten lokalen Rechenzentren zu Compute Engine migrieren.

Verwenden Sie verwaltete Cloud-Dienste, die für bestimmte Arbeitslasten optimiert sind, anstelle von selbstverwalteten VMs.

Nicht verwendete Cloud-Ressourcen minimieren

Mit den Active Assist-Features können Sie nicht verwendete VMs löschen, VM-Formen optimieren und unbeaufsichtigte Projekte beenden.

Identifizieren Sie Möglichkeiten, Cloud-Ressourcen nach Bedarf zu erstellen (und zu löschen), anstatt sie ständig bereitzuhalten.

Planen Sie VMs so, dass sie nach Bedarf gestartet und beendet werden.

Migrieren Sie Arbeitslasten zu Containern und führen Sie sie mit verwalteten Diensten wie Cloud Run und GKE effizient aus.

Refaktorieren Sie monolithische Anwendungen in Mikrodienste, um Effizienzvorteile zu erhalten.

Verwenden Sie Dienste, die Computing und Speicher für die Datenverarbeitung und Analyse voneinander trennen.

Vorhandene VM-Arbeitslasten zu verwalteten Diensten migrieren.

Emissionen von Batch-Arbeitslasten reduzieren

Führen Sie Batch-Arbeitslasten mit minimalen oder keinem regionenübergreifenden ausgehenden Traffic in Regionen mit niedriger CO₂-Bilanz aus.

Führen Sie Arbeitslasten zu Tageszeiten aus, die möglichst mit einer geringeren Kohlenstoffintensität im Netz zusammenfallen.

Nächste Schritte