AI Infrastructure
Skalierbare, leistungsstarke und kostengünstige Infrastruktur für beliebige ML-Arbeitslasten.
-
KI-Beschleuniger für jeden Anwendungsfall – von Hochleistungstraining bis hin zu kostengünstiger Inferenz
-
Mit der vollständig verwalteten Infrastruktur von Vertex AI für KI-Arbeitslasten schneller skalieren
-
Bahnbrechende Algorithmen mit optimierter Infrastruktur entwickelt von Google Research und Partnern
Vorteile
Leistung und Kosten in großem Umfang optimieren
Bei Google Cloud können Sie unter GPUs, TPUs und CPUs wählen, um verschiedenste Anwendungsfällen zu unterstützen, darunter Hochleistungstraining, kostengünstige Inferenz und Datenverarbeitung im großen Maßstab.
Mit einer verwalteten Infrastruktur schneller Ergebnisse erzielen
Mit der verwalteten Infrastruktur von Vertex AI können Sie schneller und effizienter skalieren. Richten Sie schnell ML-Umgebungen ein, automatisieren Sie die Orchestrierung, verwalten Sie große Cluster und richten Sie Anwendungen mit niedriger Latenz ein.
Innovationen durch hochmoderne KI
Steigern Sie dank dem Zugriff auf die hochmoderne KI von Google Research, DeepMind und Partnern den Mehrwert des ML.
Wichtige Features
Wichtige Features
Flexible und skalierbare Hardware für jeden Anwendungsfall
Bei Google Cloud können Sie unter GPUs, TPUs und CPUs wählen, um verschiedenste Anwendungsfällen zu unterstützen, darunter Hochleistungstraining, kostengünstige Inferenz und Datenverarbeitung im großen Maßstab. Beschleunigen Sie Ihre Vorgänge mit TPUs (Tensor Processing Units) für Training und Ausführung von neuronalen Deep-Learning-Netzwerken in großem Maßstab dank optimierter Kosten und Trainingszeiten.
Für eine kostengünstige Inferenz oder ein vertikales oder horizontales Training können Sie unter verschiedenen NVIDIA-GPUs auswählen. Nicht alle Modelle für maschinelles Lernen sind gleich und verschiedene Modelle profitieren von unterschiedlicher Hardwarebeschleunigung. Schließlich können Sie auf CPU-Plattformen zugreifen, wenn Sie eine VM-Instanz in Compute Engine starten. Compute Engine umfasst eine Reihe von Intel- und AMD-Prozessoren für Ihre VMs.
Bereitstellung mit niedriger Latenz
Vertex AI bietet eine maßgeschneiderte Infrastruktur, die ML-Prozesse automatisch verwaltet. Stellen Sie auf vollständig verwalteten Endpunkten mit Autoscaling, private Endpunkte und eine große Auswahl an CPUs und GPUs bereit.
Die optimierte Tensorflow-Laufzeit ermöglicht die Modellvorkompilierung über GPUs und CPUs hinweg mit bis zu 8-fachem Durchsatz und einer 6-mal niedrigeren Latenz für tabellarische Modelle.
Umfangreiches Training
Vertex AI bietet verwaltete Netzwerkfunktionen, mit denen Kunden Schulungen mit mehreren Knoten skalieren und Trainingszeiten reduzieren können.
Verwaltete Trainingsjobs: Senden und vergessen Sie Trainingsjobs mit Warteschlangenverwaltung, NVIDIA-GPUs und -TPUs sowie integrierter Hyperparameter-Optimierung.
Reduktionsserver: Optimieren Sie das verteilte GPU-Training für synchrone Datenalgorithmen mit bis zu 30 bis 40 % geringerer Trainingszeit und -kosten.
Cloud Storage FUSE und NFS: Vereinfachen und beschleunigen Sie Ihre ML-Trainingsjobs mit integrierten Datei- und Objektspeicheroptionen in Vertex AI, mit Unterstützung für Cloud Storage AutoClass.
Modernste KI-Algorithmen
Zugriff auf hochmoderne KI-Algorithmen, die von Google-Forschung entwickelt wurden, um komplexe KI-Anwendungsfälle mit integrierter optimierter Infrastruktur zu optimieren. Reduzieren Sie die Komplexität und beschleunigen Sie die Wertschöpfung mit Algorithmen wie NAS, TabNet, Alphafold und NVIDIA Merlin.
Äußerst flexible und offene Plattform
Wir möchten unseren Kunden die Freiheit bieten, das ML-Framework oder die Infrastrukturdienste auszuwählen, die für sie am besten geeignet sind.
Sie können über eine einzige einheitliche Daten- und KI-Cloudplattform auf jedes Tool, jede API oder jedes Framework für Ihre ML-Arbeitslasten zugreifen und diese verwenden. So können Ihre Teams das richtige Framework für ihre Anforderungen und Entwicklung auswählen.
Sie haben Zugriff auf eine Vielzahl von Bausteinen wie Deep-Learning-VMs und -Container und einen Marktplatz ausgewählter ISV-Angebote, mit denen Sie Ihren eigenen Software-Stack auf VMs und/oder der Google Kubernetes Engine (GKE) entwerfen können.
Das ist neu
Das ist neu
Dokumentation
Dokumentation
GPUs zum Trainieren von Modellen in der Cloud verwenden
GPUs können das Training von Deep Learning-Modellen für Aufgaben wie die Bildklassifizierung, Videoanalyse und Verarbeitung natürlicher Sprache beschleunigen.
TPUs zum Trainieren eines Modells verwenden
TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen. Mit Cloud TPU können Sie Ihre Trainingsjobs in AI Platform Training ausführen.
What makes TPUs fine-tuned for deep learning?
Erfahren Sie mehr über die Rechenanforderungen von Deep Learning und den Einsatz von CPUs, GPUs und TPUs zur Aufgabenverarbeitung.
Deep Learning VM
Deep Learning VM Images sind für Data Science- und ML-Aufgaben optimiert. Sie enthalten vorinstallierte zentrale ML-Frameworks und -Tools und können mit GPUs verwendet werden.
AI Platform Deep Learning Container
AI Platform Deep Learning Container sind leistungsoptimierte, konsistente Umgebungen, die ein schnelles Prototyping und Implementieren von Workflows unterstützen. Sie können mit GPUs verwendet werden.
Preise
Preise
Die Preise für AI Infrastructure hängen von den ausgewählten Produkten ab. Sie können AI Infrastructure kostenlos testen.
Cloud TPU | Cloud GPU |
---|---|
Informationen zu Preisen für verschiedene TPU-Einzelgeräte und TPU-Pods finden Sie unter TPU-Preise. | Informationen zu Preisen für die verschiedenen GPU-Typen und -Regionen, die in Compute Engine verfügbar sind, finden Sie unter GPU-Preise. |
KI-Produkte von Google Cloud entsprechen unseren SLA-Richtlinien. Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.