Cloud Bursting ist eine Konfiguration im Cloud Computing, bei der eine Anwendung in einer privaten Cloud oder einem lokalen Rechenzentrum ausgeführt wird und bei einem Anstieg der Nachfrage nach Rechenkapazität in eine öffentliche Cloud „platzt“. Das funktioniert wie ein Überdruckventil: Wenn die private Infrastruktur ihre Kapazitätsgrenze erreicht, wird der Traffic automatisch an öffentliche Cloud-Dienste weitergeleitet, um Unterbrechungen zu vermeiden. Stellen Sie sich das wie einen Laden vor, der zusätzliche Kassen öffnet, wenn die Warteschlangen zu lang werden. Die Cloud Bursting-Einrichtung ist eine spezielle Art von Hybrid-Cloud-Bereitstellung.
Bei einem herkömmlichen Cloud-Skalierungsmodell versucht ein Unternehmen möglicherweise, alles in einer Umgebung zu verwalten. Wenn Sie jedoch genügend physische Server besitzen, um den Tag mit der höchsten Auslastung zu bewältigen, stehen diese Server an den anderen 364 Tagen leer und werden nicht genutzt. Cloud Bursting kann hier Abhilfe schaffen, da Unternehmen so für die Grundkapazität im eigenen Rechenzentrum bezahlen und nur dann für zusätzliche Ressourcen in der öffentlichen Cloud aufkommen müssen, wenn sie diese tatsächlich benötigen. So können Unternehmen plötzliche Traffic-Spitzen bewältigen, ohne teure Hardware kaufen zu müssen, die sie nicht ständig benötigen.
Stellen Sie sich Ihre private Cloud als Wassertank vor. Unter normalen Bedingungen bleibt das Wasser (Datenverkehr) innerhalb der Kapazität des Tanks. Wenn jedoch ein plötzlicher Sturm aufzieht (ein Traffic-Spike), droht der Tank überzulaufen.
Bei einem Cloud Bursting-Setup konfigurieren IT-Teams einen „Trigger“ oder Schwellenwert – in der Regel, wenn die Ressourcennutzung etwa 70–80 % erreicht. Sobald dieser Schwellenwert überschritten wird, öffnet das System automatisch ein Ventil zu einem sekundären Tank – der öffentlichen Cloud. Die Anwendung läuft nahtlos weiter, während der überschüssige Traffic an die Ressourcen der öffentlichen Cloud weitergeleitet wird. Sobald der Sturm vorüber ist und der Traffic wieder abnimmt, schließt das System das Ventil und stellt die Ressourcen der öffentlichen Cloud außer Betrieb. Der Betrieb wird dann wieder ausschließlich in der privaten Cloud ausgeführt.
Je nachdem, wie viel Kontrolle oder Automatisierung ein Team benötigt, gibt es verschiedene Möglichkeiten, diese Bursts einzurichten.
Cloud-Bursting ist nicht immer die richtige Lösung für jede Anwendung, insbesondere nicht für solche, die auf komplexen, sensiblen Daten basieren, die ein privates Netzwerk nicht verlassen dürfen. Sie eignet sich in der Regel am besten für Arbeitslasten mit schwankenden, saisonalen oder unvorhersehbaren Nachfragemustern, bei denen Geschwindigkeit und Verfügbarkeit entscheidend sind, wie in den folgenden Situationen:
Einzelhändler sind bei beliebten Shopping-Events wie Black Friday oder Cyber Monday oft mit massiven Traffic-Spitzen konfrontiert. Mit Cloud Bursting können diese Unternehmen für einige Tage Millionen von Käufern über die öffentliche Cloud abwickeln und dann wieder auf ihre private Infrastruktur zurückgreifen, wenn der Ansturm vorbei ist.
Data Scientists und Ingenieure führen häufig HPC-Aufgaben (High Performance Computing) aus, z. B. komplexe Simulationen, KI-Modelltraining oder andere rechenintensive Aufgaben wie 3D-Rendering. Für diese Jobs sind möglicherweise Tausende von Servern für nur wenige Stunden erforderlich. Mit Bursting können Teams diese enorme Leistung vorübergehend mieten, anstatt in einer langen Supercomputing-Warteschlange zu warten oder einen Supercomputer zu bauen, der nicht ausgelastet wird.
Softwareentwickler müssen häufig temporäre Umgebungen hochfahren, um neuen Code oder Updates zu testen. Anstatt Platz auf den privaten Hauptservern zu belegen, können sie diese Testumgebungen in die öffentliche Cloud auslagern. So bleibt die Produktionsumgebung sicher und stabil.
Wenn ein lokales Rechenzentrum aufgrund eines Stromausfalls oder einer Naturkatastrophe offline geht, kann Cloud Bursting als Failover-Mechanismus zur Notfallwiederherstellung dienen. Das System kann Traffic in die öffentliche Cloud umleiten, damit die Anwendung weiter ausgeführt wird, bis der primäre Standort wieder funktioniert.
Für Cloud Bursting sind nicht nur zwei Rechenumgebungen erforderlich, sondern auch eine Strategie, um die Komplexität des Verschiebens von Daten und Anwendungen zwischen ihnen zu bewältigen. Dazu benötigen Unternehmen Funktionen, die eine nahtlose Konnektivität und eine konsistente Verwaltung gewährleisten.
Eine der effektivsten Möglichkeiten, einen Cloud Bursting-Trigger zu implementieren, ist die Verwendung von Google Kubernetes Engine (GKE) und Horizontal Pod Autoscaler (HPA) mit externen Messwerten. In diesem Szenario sendet Ihre lokale Anwendung ein Signal (einen Messwert) an Google Cloud Monitoring. Wenn dieser Wert einen Schwellenwert überschreitet, startet GKE automatisch neue Pods in der Cloud, um die Last zu bewältigen.
So richten Sie einen Trigger basierend auf der Pub/Sub-Warteschlangentiefe ein (ein häufiger Indikator dafür, dass Ihre lokalen Worker überlastet sind):
1. Benutzerdefinierte Messwerte-API aktivieren: Zuerst müssen Sie Ihrem GKE-Cluster erlauben, Messwerte aus Cloud Monitoring zu lesen. Dazu stellen Sie den Stackdriver-Adapter für benutzerdefinierte Messwerte in Ihrem Cluster bereit. Dieser Adapter fungiert als Brücke und übersetzt Google Cloud-Messwerte in ein Format, das Kubernetes versteht.
2. HPA-Konfiguration definieren: Erstellen Sie eine YAML-Datei für HorizontalPodAutoscaler. Im Gegensatz zu einem Standard-Autoscaler, der die CPU-Auslastung berücksichtigt, wird hier ein externer Messwert verwendet, nämlich die Anzahl der nicht zugestellten Nachrichten in einem Pub/Sub-Abo (num_undelivered_messages).
3. Anwenden und überwachen: Wenden Sie diese Konfiguration mit kubectl apply ‑f hpa.yaml an. Jetzt „beobachtet“ GKE Ihre Warteschlange. Wenn Ihr lokales System langsamer wird und die Warteschlange über das Ziel (50 Nachrichten) hinaus anwächst, löst die HPA automatisch die Erstellung neuer Pods in der Cloud aus, um den Rückstand abzuarbeiten. Sobald die Warteschlange leer ist, skaliert GKE die Pods wieder auf null herunter.
Sie können nur verwalten, was Sie auch sehen. Damit Cloud Bursting funktioniert, benötigen IT-Teams einen klaren Überblick über ihre Ressourcen sowohl im privaten Rechenzentrum als auch in der öffentlichen Cloud. Google Cloud bietet Tools, mit denen Sie detailliert sehen können, wie Anwendungen CPU und Arbeitsspeicher nutzen.
Wenn Teams genau wissen, wie viel „Treibstoff“ eine Anwendung verbraucht, können sie genaue Schwellenwerte für das Bursting festlegen. Wenn der Schwellenwert zu niedrig ist, geben Sie möglicherweise unnötig Geld für die öffentliche Cloud aus. Wenn er zu hoch ist, kann die App abstürzen, bevor die neuen Ressourcen eintreffen. Einheitliches Monitoring hilft Unternehmen, diese Einstellungen so abzustimmen, dass Leistung und Kosten im Gleichgewicht sind.
Manuelles Balancing eignet sich für kleine, seltene Projekte, lässt sich aber möglicherweise nicht gut für Unternehmensanwendungen skalieren. Um effizienter zu sein, können Unternehmen Software und Tools implementieren, um Cloud-Computing-Ressourcen automatisch zu orchestrieren. Automatisierungstools wie Terraform oder der Deployment Manager von Google Cloud können Ihnen dabei helfen, Infrastruktur als Code (IaC) zu definieren.
Das System kann also Server automatisch basierend auf dem Echtzeitbedarf bereitstellen, konfigurieren und verwalten. Wenn die Trafficspitze abklingt, übernehmen die Automatisierungstools auch die „Deaktivierung“ oder das Herunterfahren dieser Ressourcen. So wird sichergestellt, dass das Unternehmen die öffentliche Cloud nicht mehr bezahlen muss, sobald sie nicht mehr benötigt wird.
Die Kontrolle während eines solchen Anstiegs ist für die Sicherheit und das Budgetmanagement von entscheidender Bedeutung. Unternehmen benötigen eine robuste Überwachungsfunktion, um Ressourcen zu verfolgen und sicherzustellen, dass sie ohne Dienstunterbrechung ordnungsgemäß bereitgestellt werden.
Berichtstools helfen dabei, die Kosten für das Bursting im Laufe der Zeit zu verfolgen. Diese Daten sind wichtig, um zukünftige Budgets zu prognostizieren. Außerdem müssen für die Bursting-Ressourcen einheitliche Sicherheitsrichtlinien gelten. Tools, die Überwachung und Berichterstellung implementieren, können im Laufe der Zeit dazu beitragen, Kosten zu senken und die Effizienz zu steigern, indem sie Trends und Anomalien bei der Nutzung erkennen.
Eine Cloud Bursting-Strategie kann für Unternehmen, die ein Gleichgewicht zwischen Leistung und Budget anstreben, mehrere Vorteile bieten.
Kosteneinsparungen
Unternehmen zahlen nur für die zusätzlichen Ressourcen der öffentlichen Cloud, wenn sie diese nutzen. So können sie die Kapitalausgaben für den Kauf von Hardware vermeiden, die in ruhigen Zeiten ungenutzt bleibt.
Flexibilität und Skalierbarkeit
Teams können so neue Projekte testen oder massive Trafficspitzen bewältigen, ohne durch den physischen Raum oder die verfügbare Leistung in ihrem eigenen Rechenzentrum eingeschränkt zu sein.
Geschäftskontinuität und Ausfallsicherheit
Wenn das private Rechenzentrum ein Problem hat oder überlastet ist, bleibt die Anwendung online, indem die Last in die öffentliche Cloud verlagert wird. So lassen sich Abstürze und Ausfallzeiten vermeiden.
Ressourcenoptimierung
IT-Teams können ihre private Cloud für kritische Aufgaben auf einem stabilen, effizienten Niveau halten und gleichzeitig variablen, unvorhersehbaren Traffic an die flexible öffentliche Cloud auslagern.
Das Konzept des Cloud Bursting ist zwar universell, die unterstützende Infrastruktur variiert jedoch stark zwischen den Anbietern. Google Cloud bietet spezifische Vorteile, die Hybrid Bursting schneller, zuverlässiger und einfacher zu verwalten machen.
Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“ Produkte kennenzulernen.