
Beschleunigen Sie HPC- und KI-Training und ‑Bereitstellung mit dem leistungsstärksten, POSIX-konformen, parallelen Dateisystem von Google.
Features
Die wahren Kosten von KI entstehen nicht nur im Bereich des Speichers, sondern auch durch inaktive Rechenressourcen. Managed Lustre bietet die Datenbereitstellung mit hohem Durchsatz und geringer Latenz, die erforderlich ist, um Ihre teuersten Assets voll auszulasten. Durch die Optimierung der Datenverteilung und die Beschleunigung der schnellen Prüfpunktverarbeitung verbessern Sie die Nutzung von Beschleunigern erheblich, was zu geringerem Aufwand und einer besseren Leistung pro Dollar führt.
Für das Training großer Deep-Learning-Modelle sind riesige Datasets erforderlich. Managed Lustre basiert auf DDN EXAScaler und verteilt den Datenzugriff, wodurch sich die Trainingszeiten verkürzen. So können Erkenntnisse schneller gewonnen, eine höhere Genauigkeit erzielt und komplexe KI-Projekte bewältigt werden. Die Skalierbarkeit ist so konzipiert, dass die Leistung mit den wachsenden Daten Schritt hält und Speicherengpässe vermieden werden. Hier finden Sie eine Übersicht von Omdia zu Managed Lustre.
Agentische KI bedingt weiterhin große Kontextfenster, wodurch Speicherherausforderung auf dem Weg dahin entstehen, eine responsive Interaktion mit Large Language Models zu ermöglichen. Große Kontextfenster erhöhen die Latenzempfindlichkeit, da der lokale Arbeitsspeicher auf den Beschleunigern oft erschöpft ist, sodass das Modell auf externen Speicher zugreifen muss.
Innovationen in allen Branchen fördern
| Branchen |
|---|
KI und ML Datenmangel beseitigen und Foundation Models in großem Umfang trainieren. Durch die Entkopplung von Rechenleistung und Speicher erhöht Managed Lustre den Durchsatz der LLM-Inferenz mit externem Schlüssel/Wert-Caching im Submillisekundenbereich, sodass Ihre teuersten Beschleuniger voll ausgelastet bleiben. KI bei Google Cloud |
Gesundheitswesen und Biowissenschaften Treiben Sie bahnbrechende Innovationen für neue Heilmethoden voran. Stellen Sie die extrem hohen IOPS bereit, die für die Beschleunigung der Arzneimittelentwicklung, die Analyse komplexer Genomsequenzierungen und KI-gestützte medizinische Bildgebungssuiten erforderlich sind, und verkürzen die Zeit bis zum Erhalt aussagekräftiger Ergebnisse für Forschende und Klinikpersonal drastisch. Gesundheitswesen und Biowissenschaften bei Google Cloud entdecken |
Machine Vision, Robotik und autonome Fahrzeuge Beschleunigen Sie die Pipeline für softwarebasierte Fahrzeuge. Lassen Sie Innovatoren mühelos Sensordaten in Petabyte-Größe aufnehmen und beschleunigen Sie gleichzeitig Forschung und Entwicklung durch Speicher mit geringer Latenz für Simulationen in den Bereichen Aerodynamik, Sicherheit und thermische Optimierung. Automobillösungen bei Google Cloud |
Kapitalmärkte Führen Sie Arbeitslasten aus, die eine Präzision im Submillisekundenbereich erfordern. Ob komplexe quantitative Risikoanalysen und Echtzeit-Marktsimulationen für Finanzdienstleistungen oder die Beschleunigung von VFX-Rendering mit hoher Auflösung und Postproduktions-Workflows für globale Medienstudios. Kapitalmärkte und Finanzdienstleistungen bei Google Cloud entdecken. |
Medien und Unterhaltung Produktionstermine einhalten – mit kompromissloser Speicherleistung. Sie bieten den extrem hohen Durchsatz, der für eine nahtlose Bearbeitung von Videos mit hoher Auflösung, das Rendern von VFX in Echtzeit und beschleunigte Workflows in der Postproduktion erforderlich ist. entdecken Medien und Unterhaltung bei Google Cloud. |
KI und ML
Datenmangel beseitigen und Foundation Models in großem Umfang trainieren. Durch die Entkopplung von Rechenleistung und Speicher erhöht Managed Lustre den Durchsatz der LLM-Inferenz mit externem Schlüssel/Wert-Caching im Submillisekundenbereich, sodass Ihre teuersten Beschleuniger voll ausgelastet bleiben.
KI bei Google Cloud
Gesundheitswesen und Biowissenschaften
Treiben Sie bahnbrechende Innovationen für neue Heilmethoden voran. Stellen Sie die extrem hohen IOPS bereit, die für die Beschleunigung der Arzneimittelentwicklung, die Analyse komplexer Genomsequenzierungen und KI-gestützte medizinische Bildgebungssuiten erforderlich sind, und verkürzen die Zeit bis zum Erhalt aussagekräftiger Ergebnisse für Forschende und Klinikpersonal drastisch.
Gesundheitswesen und Biowissenschaften bei Google Cloud entdecken
Machine Vision, Robotik und autonome Fahrzeuge
Beschleunigen Sie die Pipeline für softwarebasierte Fahrzeuge. Lassen Sie Innovatoren mühelos Sensordaten in Petabyte-Größe aufnehmen und beschleunigen Sie gleichzeitig Forschung und Entwicklung durch Speicher mit geringer Latenz für Simulationen in den Bereichen Aerodynamik, Sicherheit und thermische Optimierung.
Automobillösungen bei Google Cloud
Kapitalmärkte
Führen Sie Arbeitslasten aus, die eine Präzision im Submillisekundenbereich erfordern. Ob komplexe quantitative Risikoanalysen und Echtzeit-Marktsimulationen für Finanzdienstleistungen oder die Beschleunigung von VFX-Rendering mit hoher Auflösung und Postproduktions-Workflows für globale Medienstudios.
Kapitalmärkte und Finanzdienstleistungen bei Google Cloud entdecken.
Medien und Unterhaltung
Produktionstermine einhalten – mit kompromissloser Speicherleistung. Sie bieten den extrem hohen Durchsatz, der für eine nahtlose Bearbeitung von Videos mit hoher Auflösung, das Rendern von VFX in Echtzeit und beschleunigte Workflows in der Postproduktion erforderlich ist.
entdecken Medien und Unterhaltung bei Google Cloud.
Preise
| Preise für Managed Lustre | Die Preise für Managed Lustre richten sich in erster Linie nach Standort und Servicelevel. |
|---|---|
| Service-Level | Preise |
1.000 MB/s/TiB Ideal für Arbeitslasten mit hoher Leistung wie KI/ML-Training, bei denen der Durchsatz entscheidend ist. | Ab 0,60 $ pro GiB und Monat |
500 MB/s/TiB Ideale Balance für hohe Leistung: Hervorragend geeignet für anspruchsvolle KI/ML-Arbeitslasten, komplexe HPC-Anwendungen und datenintensive Analysen, die einen hohen Durchsatz erfordern, aber von einem ausgewogeneren Preis-Leistungs-Verhältnis profitieren können. | Ab 0,34 $ pro GiB und Monat |
250 MB/s/TiB Ideal für allgemeine HPC- und durchsatzintensive KI: Geeignet für eine breite Palette von HPC-Arbeitslasten, KI/ML-Inferenz, Datenvorverarbeitung und Anwendungen, die eine deutlich bessere Leistung als herkömmliches NFS zu einem kostengünstigen Preis benötigen. | Ab 0,21 $ pro GiB und Monat |
125 MB/s/TiB Am besten geeignet für kapazitätsorientierte Arbeitslasten mit parallelem Zugriff: Entwickelt für Szenarien, in denen große Kapazitäten und paralleler Dateisystemzugriff entscheidend sind. Gut für weniger E/A-gebundene parallele Aufgaben. | Ab 1,45 $ pro GiB und Monat |
Google Cloud-Preise. Vollständige Preisinformationen
Preise für Managed Lustre
Die Preise für Managed Lustre richten sich in erster Linie nach Standort und Servicelevel.
1.000 MB/s/TiB
Ideal für Arbeitslasten mit hoher Leistung wie KI/ML-Training, bei denen der Durchsatz entscheidend ist.
Ab 0,60 $ pro GiB und Monat
500 MB/s/TiB
Ideale Balance für hohe Leistung: Hervorragend geeignet für anspruchsvolle KI/ML-Arbeitslasten, komplexe HPC-Anwendungen und datenintensive Analysen, die einen hohen Durchsatz erfordern, aber von einem ausgewogeneren Preis-Leistungs-Verhältnis profitieren können.
Ab 0,34 $ pro GiB und Monat
250 MB/s/TiB
Ideal für allgemeine HPC- und durchsatzintensive KI: Geeignet für eine breite Palette von HPC-Arbeitslasten, KI/ML-Inferenz, Datenvorverarbeitung und Anwendungen, die eine deutlich bessere Leistung als herkömmliches NFS zu einem kostengünstigen Preis benötigen.
Ab 0,21 $ pro GiB und Monat
125 MB/s/TiB
Am besten geeignet für kapazitätsorientierte Arbeitslasten mit parallelem Zugriff: Entwickelt für Szenarien, in denen große Kapazitäten und paralleler Dateisystemzugriff entscheidend sind. Gut für weniger E/A-gebundene parallele Aufgaben.
Ab 1,45 $ pro GiB und Monat
Google Cloud-Preise. Vollständige Preisinformationen
Anwendungsszenario
Kundenstimmen zu Managed Lustre
„Unsere Fähigkeit, Unternehmen dabei zu unterstützen, Deepfake-Audio, ‑Video und ‑Bilder zu erkennen und zu blockieren, hängt von der Qualität unserer Modelle ab. Managed Lustre ist entscheidend für unser erfolgreiches Modelltraining mit unseren dynamischen Datasets. Wir können unsere GPUs voll auslasten. Das läuft sechsmal schneller als die anderen Speicherlösungen, die wir getestet haben.“
Hier finden Sie die Erfolgsgeschichte.
—Zohaib Ahmed, CEO von Resemble AI
„Mit Managed Lustre können wir das KI-Modelltraining für AFEELA Intelligent Drive im Vergleich zu anderen Google Cloud-Lösungen um das Dreifache skalieren.“
—Motoi Kataoka, Senior Manager, AI and Data Analytics Platform, Sony Honda Mobility Inc.
„Durch die Einbindung von Managed Lustre in VTC (Vertex Training Clusters) konnte Salesforce AI Research die typischen Onboarding-Engpässe beseitigen, sodass wir mit der Inferenz-Arbeitslast sofort loslegen konnten. Dieser Speicher mit hohem Durchsatz und niedriger Latenz hält unsere B200-GPUs voll ausgelastet und sorgt für eine deutliche Leistungssteigerung bei der Inferenz von Large Language Models im Vergleich zur H200. Für unsere Kundenunternehmen bedeutet das schnellere, responsivere KI-Agenten, die komplexe Schlussfolgerungen mit einem Bruchteil der bisherigen Latenzzeit verarbeiten können.“
—Lavanya Karanam, Principal Software Engineer, Salesforce
„Der Wechsel zu Google Cloud hat das Tempo meiner Forschung grundlegend verändert. Ich trainiere neuronale Netzwerke im großen Maßstab mit riesigen Datasets, darunter den gesamten Common Corpus, den das Clusterteam hochgeladen und mir direkt im Cluster zugänglich gemacht hat. Das vollständige Dataset wäre mit keiner anderen Infrastruktur, auf die ich praktisch Zugriff hatte, zu erreichen gewesen. Mit Managed Lustre ist die Datenerfassung, die zuvor einen Engpass in meiner Pipeline darstellte, jetzt in Sekundenschnelle abgeschlossen. Meine GPUs werden konstant genutzt und ich muss viel weniger Zeit in der Warteschlange verbringen. Das Ergebnis ist eine messbar schnellere Zeit bis zum Abschluss bei jedem Experiment, das ich durchführe.“
Christopher J. Lynch, Ph.D., Research Assistant Professor, Virginia Modeling, Analysis, & Simulation Center (VMASC), Old Dominion University
„Mit Managed Lustre haben wir mindestens 50 % der Unterbrechungen bei Trainingsversuchen für mathematische Reasoning-Modelle beseitigt, sodass wir doppelt so viele Versuche durchführen können. Wir haben den Dienst als regionalen Cache für 'heiße' Checkpoints eingebunden und so einen schnelleren, zuverlässigeren und bequemeren Start sowie eine bessere Checkpoint-Persistenz erreicht. In unserem Workflow schreiben Trainingsjobs Checkpoints, die nachfolgende Inferenz- oder neue Trainingsjobs in einem Offlinesystem verarbeiten. Dadurch wird die Datenabrufgeschwindigkeit um das bis zu 15-Fache erhöht und die Startzeit um mehr als 50 % verkürzt. Die Möglichkeit, Lustre als zuverlässiges, eingebundenes Dateisystem mit solider Leistung zu nutzen, hat es unserem Forschungsteam ermöglicht, bei Experimenten mit neuen Trainingstechnologien unabhängiger zu sein. So können wir problemlos doppelt so viele Iterationszyklen durchführen und gleichzeitig eine höhere Leistung erzielen, als wenn wir dieselben Daten aus anderen Speicheroptionen abrufen würden.“
—Riley Patterson, Harmonic, Infrastructure Lead
GKE-Arbeitslasten mit Managed Lustre skalieren
Anleitung zur Verwendung des Managed Lustre CSI-Treibers mit der Google Kubernetes Engine (GKE) zur nahtlosen Bereitstellung von Hochleistungsspeicher für containerisierte KI-, ML- und HPC-Arbeitslasten. Blog lesen
KI und HPC mit Managed Lustre beschleunigen
Übersicht darüber, wie Managed Lustre die Bereitstellung paralleler Dateisysteme für HPC-Arbeitslasten vereinfacht. Blog lesen
Externer Schlüssel/Wert-Cache mit Managed Lustre
Eine detaillierte Anleitung zur Verwendung von Lustre zum Auslagern von Schlüssel/Wert-Caches für die Large Language Model-Inferenz (LLMs), wodurch der Speicheraufwand auf TPUs/GPUs reduziert wird. Blog lesen




