Speicherplatz

Google Cloud Managed Lustre

Paralleles Dateisystem mit hoher Leistung

Beschleunigen Sie HPC- und KI-Training und ‑Bereitstellung mit dem leistungsstärksten, POSIX-konformen, parallelen Dateisystem von Google.

Features

GPU-Auslastung und ROI für Rechenleistung maximieren

Die wahren Kosten von KI entstehen nicht nur im Bereich des Speichers, sondern auch durch inaktive Rechenressourcen. Managed Lustre bietet die Datenbereitstellung mit hohem Durchsatz und geringer Latenz, die erforderlich ist, um Ihre teuersten Assets voll auszulasten. Durch die Optimierung der Datenverteilung und die Beschleunigung der schnellen Prüfpunktverarbeitung verbessern Sie die Nutzung von Beschleunigern erheblich, was zu geringerem Aufwand und einer besseren Leistung pro Dollar führt.

Leistung und Skalierbarkeit für KI-/ML-Arbeitslasten

Für das Training großer Deep-Learning-Modelle sind riesige Datasets erforderlich. Managed Lustre basiert auf DDN EXAScaler und verteilt den Datenzugriff, wodurch sich die Trainingszeiten verkürzen. So können Erkenntnisse schneller gewonnen, eine höhere Genauigkeit erzielt und komplexe KI-Projekte bewältigt werden. Die Skalierbarkeit ist so konzipiert, dass die Leistung mit den wachsenden Daten Schritt hält und Speicherengpässe vermieden werden. Hier finden Sie eine Übersicht von Omdia zu Managed Lustre.

KI-Inferenz mit KV-Cache beschleunigen

Agentische KI bedingt weiterhin große Kontextfenster, wodurch Speicherherausforderung auf dem Weg dahin entstehen, eine responsive Interaktion mit Large Language Models zu ermöglichen. Große Kontextfenster erhöhen die Latenzempfindlichkeit, da der lokale Arbeitsspeicher auf den Beschleunigern oft erschöpft ist, sodass das Modell auf externen Speicher zugreifen muss.

Innovationen in allen Branchen fördern

Branchen

KI und ML

Datenmangel beseitigen und Foundation Models in großem Umfang trainieren. Durch die Entkopplung von Rechenleistung und Speicher erhöht Managed Lustre den Durchsatz der LLM-Inferenz mit externem Schlüssel/Wert-Caching im Submillisekundenbereich, sodass Ihre teuersten Beschleuniger voll ausgelastet bleiben.

KI bei Google Cloud

Gesundheitswesen und Biowissenschaften

Treiben Sie bahnbrechende Innovationen für neue Heilmethoden voran. Stellen Sie die extrem hohen IOPS bereit, die für die Beschleunigung der Arzneimittelentwicklung, die Analyse komplexer Genomsequenzierungen und KI-gestützte medizinische Bildgebungssuiten erforderlich sind, und verkürzen die Zeit bis zum Erhalt aussagekräftiger Ergebnisse für Forschende und Klinikpersonal drastisch.

Gesundheitswesen und Biowissenschaften bei Google Cloud entdecken

Machine Vision, Robotik und autonome Fahrzeuge

Beschleunigen Sie die Pipeline für softwarebasierte Fahrzeuge. Lassen Sie Innovatoren mühelos Sensordaten in Petabyte-Größe aufnehmen und beschleunigen Sie gleichzeitig Forschung und Entwicklung durch Speicher mit geringer Latenz für Simulationen in den Bereichen Aerodynamik, Sicherheit und thermische Optimierung.

Automobillösungen bei Google Cloud

Kapitalmärkte

Führen Sie Arbeitslasten aus, die eine Präzision im Submillisekundenbereich erfordern. Ob komplexe quantitative Risikoanalysen und Echtzeit-Marktsimulationen für Finanzdienstleistungen oder die Beschleunigung von VFX-Rendering mit hoher Auflösung und Postproduktions-Workflows für globale Medienstudios.

Kapitalmärkte und Finanzdienstleistungen bei Google Cloud entdecken.

Medien und Unterhaltung

Produktionstermine einhalten – mit kompromissloser Speicherleistung. Sie bieten den extrem hohen Durchsatz, der für eine nahtlose Bearbeitung von Videos mit hoher Auflösung, das Rendern von VFX in Echtzeit und beschleunigte Workflows in der Postproduktion erforderlich ist.

entdecken Medien und Unterhaltung bei Google Cloud.

KI und ML

Datenmangel beseitigen und Foundation Models in großem Umfang trainieren. Durch die Entkopplung von Rechenleistung und Speicher erhöht Managed Lustre den Durchsatz der LLM-Inferenz mit externem Schlüssel/Wert-Caching im Submillisekundenbereich, sodass Ihre teuersten Beschleuniger voll ausgelastet bleiben.

KI bei Google Cloud

Gesundheitswesen und Biowissenschaften

Treiben Sie bahnbrechende Innovationen für neue Heilmethoden voran. Stellen Sie die extrem hohen IOPS bereit, die für die Beschleunigung der Arzneimittelentwicklung, die Analyse komplexer Genomsequenzierungen und KI-gestützte medizinische Bildgebungssuiten erforderlich sind, und verkürzen die Zeit bis zum Erhalt aussagekräftiger Ergebnisse für Forschende und Klinikpersonal drastisch.

Gesundheitswesen und Biowissenschaften bei Google Cloud entdecken

Machine Vision, Robotik und autonome Fahrzeuge

Beschleunigen Sie die Pipeline für softwarebasierte Fahrzeuge. Lassen Sie Innovatoren mühelos Sensordaten in Petabyte-Größe aufnehmen und beschleunigen Sie gleichzeitig Forschung und Entwicklung durch Speicher mit geringer Latenz für Simulationen in den Bereichen Aerodynamik, Sicherheit und thermische Optimierung.

Automobillösungen bei Google Cloud

Kapitalmärkte

Führen Sie Arbeitslasten aus, die eine Präzision im Submillisekundenbereich erfordern. Ob komplexe quantitative Risikoanalysen und Echtzeit-Marktsimulationen für Finanzdienstleistungen oder die Beschleunigung von VFX-Rendering mit hoher Auflösung und Postproduktions-Workflows für globale Medienstudios.

Kapitalmärkte und Finanzdienstleistungen bei Google Cloud entdecken.

Medien und Unterhaltung

Produktionstermine einhalten – mit kompromissloser Speicherleistung. Sie bieten den extrem hohen Durchsatz, der für eine nahtlose Bearbeitung von Videos mit hoher Auflösung, das Rendern von VFX in Echtzeit und beschleunigte Workflows in der Postproduktion erforderlich ist.

entdecken Medien und Unterhaltung bei Google Cloud.

Funktionsweise

Hochleistungsspeicher für KI Mit Google Cloud Managed Lustre, basierend auf DDN EXAScaler, können Sie Cloud-HPC-Ressourcen sofort bereitstellen und nach Bedarf skalieren.

Gängige Einsatzmöglichkeiten

Jetzt starten

  1. Managed Lustre-Instanz erstellen: Stellen Sie Ihre Managed Lustre-Instanz mit nur wenigen Klicks bereit.
  2. Aufnehmen und verbinden: Sie können Ihr Managed Lustre-Dateisystem ganz einfach mit Daten direkt aus Google Cloud Storage füllen.
  3. Verarbeitung im großen Maßstab: Sie können riesige Datasets mit extrem niedriger Latenz in Vertex Training Clusters (VTC) oder GKE einlesen.
  4. Beschleunigen: Sie können Daten mit hohem Durchsatz direkt an Hardware der nächsten Generation weiterleiten, um für eine maximale GPU-Auslastung zu sorgen.
    1. Managed Lustre-Instanz erstellen: Stellen Sie Ihre Managed Lustre-Instanz mit nur wenigen Klicks bereit.
    2. Aufnehmen und verbinden: Sie können Ihr Managed Lustre-Dateisystem ganz einfach mit Daten direkt aus Google Cloud Storage füllen.
    3. Verarbeitung im großen Maßstab: Sie können riesige Datasets mit extrem niedriger Latenz in Vertex Training Clusters (VTC) oder GKE einlesen.
    4. Beschleunigen: Sie können Daten mit hohem Durchsatz direkt an Hardware der nächsten Generation weiterleiten, um für eine maximale GPU-Auslastung zu sorgen.

      Preise

      Preise für Managed LustreDie Preise für Managed Lustre richten sich in erster Linie nach Standort und Servicelevel.
      Service-LevelPreise

      1.000 MB/s/TiB

      Ideal für Arbeitslasten mit hoher Leistung wie KI/ML-Training, bei denen der Durchsatz entscheidend ist.

      Ab 0,60 $ pro GiB und Monat

      500 MB/s/TiB

      Ideale Balance für hohe Leistung: Hervorragend geeignet für anspruchsvolle KI/ML-Arbeitslasten, komplexe HPC-Anwendungen und datenintensive Analysen, die einen hohen Durchsatz erfordern, aber von einem ausgewogeneren Preis-Leistungs-Verhältnis profitieren können.

      Ab 0,34 $ pro GiB und Monat

      250 MB/s/TiB

      Ideal für allgemeine HPC- und durchsatzintensive KI: Geeignet für eine breite Palette von HPC-Arbeitslasten, KI/ML-Inferenz, Datenvorverarbeitung und Anwendungen, die eine deutlich bessere Leistung als herkömmliches NFS zu einem kostengünstigen Preis benötigen.


      Ab 0,21 $ pro GiB und Monat

      125 MB/s/TiB

      Am besten geeignet für kapazitätsorientierte Arbeitslasten mit parallelem Zugriff: Entwickelt für Szenarien, in denen große Kapazitäten und paralleler Dateisystemzugriff entscheidend sind. Gut für weniger E/A-gebundene parallele Aufgaben.

      Ab 1,45 $ pro GiB und Monat

      Preise für Managed Lustre

      Die Preise für Managed Lustre richten sich in erster Linie nach Standort und Servicelevel.

      1.000 MB/s/TiB

      Ideal für Arbeitslasten mit hoher Leistung wie KI/ML-Training, bei denen der Durchsatz entscheidend ist.

      Preise

      Ab 0,60 $ pro GiB und Monat

      500 MB/s/TiB

      Ideale Balance für hohe Leistung: Hervorragend geeignet für anspruchsvolle KI/ML-Arbeitslasten, komplexe HPC-Anwendungen und datenintensive Analysen, die einen hohen Durchsatz erfordern, aber von einem ausgewogeneren Preis-Leistungs-Verhältnis profitieren können.

      Preise

      Ab 0,34 $ pro GiB und Monat

      250 MB/s/TiB

      Ideal für allgemeine HPC- und durchsatzintensive KI: Geeignet für eine breite Palette von HPC-Arbeitslasten, KI/ML-Inferenz, Datenvorverarbeitung und Anwendungen, die eine deutlich bessere Leistung als herkömmliches NFS zu einem kostengünstigen Preis benötigen.


      Preise

      Ab 0,21 $ pro GiB und Monat

      125 MB/s/TiB

      Am besten geeignet für kapazitätsorientierte Arbeitslasten mit parallelem Zugriff: Entwickelt für Szenarien, in denen große Kapazitäten und paralleler Dateisystemzugriff entscheidend sind. Gut für weniger E/A-gebundene parallele Aufgaben.

      Preise

      Ab 1,45 $ pro GiB und Monat

      Preisrechner

      Schätzen Sie Ihre monatlichen Kosten für Google Cloud-Produkte.

      Individuelles Angebot

      Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.

      Proof of Concept starten

      Erste Schritte mit Managed Lustre

      Technische Details

      Managed Lustre in Google Cloud entdecken

      Mit Vertex AI Ihre KI-Anwendung entwickeln

      Der AI Hypercomputer – die integrierte Supercomputing-Architektur von Google

      Anwendungsszenario

      Kundenstimmen zu Managed Lustre


      „Unsere Fähigkeit, Unternehmen dabei zu unterstützen, Deepfake-Audio, ‑Video und ‑Bilder zu erkennen und zu blockieren, hängt von der Qualität unserer Modelle ab. Managed Lustre ist entscheidend für unser erfolgreiches Modelltraining mit unseren dynamischen Datasets. Wir können unsere GPUs voll auslasten. Das läuft sechsmal schneller als die anderen Speicherlösungen, die wir getestet haben.“

      Hier finden Sie die Erfolgsgeschichte.

      Zohaib Ahmed, CEO von Resemble AI

      „Mit Managed Lustre können wir das KI-Modelltraining für AFEELA Intelligent Drive im Vergleich zu anderen Google Cloud-Lösungen um das Dreifache skalieren.“

      Motoi Kataoka, Senior Manager, AI and Data Analytics Platform, Sony Honda Mobility Inc.

      „Durch die Einbindung von Managed Lustre in VTC (Vertex Training Clusters) konnte Salesforce AI Research die typischen Onboarding-Engpässe beseitigen, sodass wir mit der Inferenz-Arbeitslast sofort loslegen konnten. Dieser Speicher mit hohem Durchsatz und niedriger Latenz hält unsere B200-GPUs voll ausgelastet und sorgt für eine deutliche Leistungssteigerung bei der Inferenz von Large Language Models im Vergleich zur H200. Für unsere Kundenunternehmen bedeutet das schnellere, responsivere KI-Agenten, die komplexe Schlussfolgerungen mit einem Bruchteil der bisherigen Latenzzeit verarbeiten können.“

      Lavanya Karanam, Principal Software Engineer, Salesforce

      „Der Wechsel zu Google Cloud hat das Tempo meiner Forschung grundlegend verändert. Ich trainiere neuronale Netzwerke im großen Maßstab mit riesigen Datasets, darunter den gesamten Common Corpus, den das Clusterteam hochgeladen und mir direkt im Cluster zugänglich gemacht hat. Das vollständige Dataset wäre mit keiner anderen Infrastruktur, auf die ich praktisch Zugriff hatte, zu erreichen gewesen. Mit Managed Lustre ist die Datenerfassung, die zuvor einen Engpass in meiner Pipeline darstellte, jetzt in Sekundenschnelle abgeschlossen. Meine GPUs werden konstant genutzt und ich muss viel weniger Zeit in der Warteschlange verbringen. Das Ergebnis ist eine messbar schnellere Zeit bis zum Abschluss bei jedem Experiment, das ich durchführe.“

       Christopher J. Lynch, Ph.D., Research Assistant Professor, Virginia Modeling, Analysis, & Simulation Center (VMASC), Old Dominion University

      „Mit Managed Lustre haben wir mindestens 50 % der Unterbrechungen bei Trainingsversuchen für mathematische Reasoning-Modelle beseitigt, sodass wir doppelt so viele Versuche durchführen können. Wir haben den Dienst als regionalen Cache für 'heiße' Checkpoints eingebunden und so einen schnelleren, zuverlässigeren und bequemeren Start sowie eine bessere Checkpoint-Persistenz erreicht. In unserem Workflow schreiben Trainingsjobs Checkpoints, die nachfolgende Inferenz- oder neue Trainingsjobs in einem Offlinesystem verarbeiten. Dadurch wird die Datenabrufgeschwindigkeit um das bis zu 15-Fache erhöht und die Startzeit um mehr als 50 % verkürzt. Die Möglichkeit, Lustre als zuverlässiges, eingebundenes Dateisystem mit solider Leistung zu nutzen, hat es unserem Forschungsteam ermöglicht, bei Experimenten mit neuen Trainingstechnologien unabhängiger zu sein. So können wir problemlos doppelt so viele Iterationszyklen durchführen und gleichzeitig eine höhere Leistung erzielen, als wenn wir dieselben Daten aus anderen Speicheroptionen abrufen würden.“

      Riley Patterson, Harmonic, Infrastructure Lead

      GKE-Arbeitslasten mit Managed Lustre skalieren

      Anleitung zur Verwendung des Managed Lustre CSI-Treibers mit der Google Kubernetes Engine (GKE) zur nahtlosen Bereitstellung von Hochleistungsspeicher für containerisierte KI-, ML- und HPC-Arbeitslasten. Blog lesen

      KI und HPC mit Managed Lustre beschleunigen

      Übersicht darüber, wie Managed Lustre die Bereitstellung paralleler Dateisysteme für HPC-Arbeitslasten vereinfacht. Blog lesen

      Externer Schlüssel/Wert-Cache mit Managed Lustre

      Eine detaillierte Anleitung zur Verwendung von Lustre zum Auslagern von Schlüssel/Wert-Caches für die Large Language Model-Inferenz (LLMs), wodurch der Speicheraufwand auf TPUs/GPUs reduziert wird. Blog lesen

      • Logo von Resemble AI
      • Sony Honda Mobility
      • Logo: Salesforce
      • Old Dominion University ODU
      • Logo: Harmonic
      Google Cloud