Weiter zu

AI Infrastructure

Skalierbare, leistungsstarke und kostengünstige Infrastruktur für beliebige ML-Arbeitslasten.

  • KI-Beschleuniger für jeden Anwendungsfall – von Hochleistungstraining bis hin zu kostengünstiger Inferenz

  • Mit der vollständig verwalteten Infrastruktur von Vertex AI für KI-Arbeitslasten schneller skalieren 

  • Bahnbrechende Algorithmen mit optimierter Infrastruktur entwickelt von Google Research und Partnern

Vorteile

Leistung und Kosten in großem Umfang optimieren

Bei Google Cloud können Sie unter GPUs, TPUs und CPUs wählen, um verschiedenste Anwendungsfällen zu unterstützen, darunter Hochleistungstraining, kostengünstige Inferenz und Datenverarbeitung im großen Maßstab.

Mit einer verwalteten Infrastruktur schneller Ergebnisse erzielen

Mit der verwalteten Infrastruktur von Vertex AI können Sie schneller und effizienter skalieren. Richten Sie schnell ML-Umgebungen ein, automatisieren Sie die Orchestrierung, verwalten Sie große Cluster und richten Sie Anwendungen mit niedriger Latenz ein.

Innovationen durch hochmoderne KI

Steigern Sie dank dem Zugriff auf die hochmoderne KI von Google Research, DeepMind und Partnern den Mehrwert des ML.

Wichtige Features

Wichtige Features

Flexible und skalierbare Hardware für jeden Anwendungsfall

Bei Google Cloud können Sie unter GPUs, TPUs und CPUs wählen, um verschiedenste Anwendungsfällen zu unterstützen, darunter Hochleistungstraining, kostengünstige Inferenz und Datenverarbeitung im großen Maßstab. Beschleunigen Sie Ihre Vorgänge mit TPUs (Tensor Processing Units) für Training und Ausführung von neuronalen Deep-Learning-Netzwerken in großem Maßstab dank optimierter Kosten und Trainingszeiten.

Für eine kostengünstige Inferenz oder ein vertikales oder horizontales Training können Sie unter verschiedenen NVIDIA-GPUs auswählen. Nicht alle Modelle für maschinelles Lernen sind gleich und verschiedene Modelle profitieren von unterschiedlicher Hardwarebeschleunigung. Schließlich können Sie auf CPU-Plattformen zugreifen, wenn Sie eine VM-Instanz in Compute Engine starten. Compute Engine umfasst eine Reihe von Intel- und AMD-Prozessoren für Ihre VMs.

Bereitstellung mit niedriger Latenz

Vertex AI bietet eine maßgeschneiderte Infrastruktur, die ML-Prozesse automatisch verwaltet. Stellen Sie auf vollständig verwalteten Endpunkten mit Autoscaling, private Endpunkte und eine große Auswahl an CPUs und GPUs bereit.

Die optimierte Tensorflow-Laufzeit ermöglicht die Modellvorkompilierung über GPUs und CPUs hinweg mit bis zu 8-fachem Durchsatz und einer 6-mal niedrigeren Latenz für tabellarische Modelle.

Umfangreiches Training

Vertex AI bietet verwaltete Netzwerkfunktionen, mit denen Kunden Schulungen mit mehreren Knoten skalieren und Trainingszeiten reduzieren können.

Verwaltete Trainingsjobs: Senden und vergessen Sie Trainingsjobs mit Warteschlangenverwaltung, NVIDIA-GPUs und -TPUs sowie integrierter Hyperparameter-Optimierung.

Reduktionsserver: Optimieren Sie das verteilte GPU-Training für synchrone Datenalgorithmen mit bis zu 30 bis 40 % geringerer Trainingszeit und -kosten.

Cloud Storage FUSE und NFS: Vereinfachen und beschleunigen Sie Ihre ML-Trainingsjobs mit integrierten Datei- und Objektspeicheroptionen in Vertex AI, mit Unterstützung für Cloud Storage AutoClass.

Modernste KI-Algorithmen

Zugriff auf hochmoderne KI-Algorithmen, die von Google-Forschung entwickelt wurden, um komplexe KI-Anwendungsfälle mit integrierter optimierter Infrastruktur zu optimieren. Reduzieren Sie die Komplexität und beschleunigen Sie die Wertschöpfung mit Algorithmen wie NAS, TabNet, Alphafold und NVIDIA Merlin.

Äußerst flexible und offene Plattform

Wir möchten unseren Kunden die Freiheit bieten, das ML-Framework oder die Infrastrukturdienste auszuwählen, die für sie am besten geeignet sind.

Sie können über eine einzige einheitliche Daten- und KI-Cloudplattform auf jedes Tool, jede API oder jedes Framework für Ihre ML-Arbeitslasten zugreifen und diese verwenden. So können Ihre Teams das richtige Framework für ihre Anforderungen und Entwicklung auswählen.

Sie haben Zugriff auf eine Vielzahl von Bausteinen wie Deep-Learning-VMs und -Container und einen Marktplatz ausgewählter ISV-Angebote, mit denen Sie Ihren eigenen Software-Stack auf VMs und/oder der Google Kubernetes Engine (GKE) entwerfen können. 

Dokumentation

Dokumentation

Grundlagen zu Google Cloud
GPUs zum Trainieren von Modellen in der Cloud verwenden

GPUs können das Training von Deep Learning-Modellen für Aufgaben wie die Bildklassifizierung, Videoanalyse und Verarbeitung natürlicher Sprache beschleunigen.

Google Cloud Basics
TPUs zum Trainieren eines Modells verwenden

TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen. Mit Cloud TPU können Sie Ihre Trainingsjobs in AI Platform Training ausführen.

Tutorial
What makes TPUs fine-tuned for deep learning?

Erfahren Sie mehr über die Rechenanforderungen von Deep Learning und den Einsatz von CPUs, GPUs und TPUs zur Aufgabenverarbeitung.

Google Cloud Basics
Deep Learning VM

Deep Learning VM Images sind für Data Science- und ML-Aufgaben optimiert. Sie enthalten vorinstallierte zentrale ML-Frameworks und -Tools und können mit GPUs verwendet werden.

Google Cloud Basics
AI Platform Deep Learning Container

AI Platform Deep Learning Container sind leistungsoptimierte, konsistente Umgebungen, die ein schnelles Prototyping und Implementieren von Workflows unterstützen. Sie können mit GPUs verwendet werden.

Preise

Preise

Die Preise für AI Infrastructure hängen von den ausgewählten Produkten ab. Sie können AI Infrastructure kostenlos testen.

Cloud TPU Cloud GPU
Informationen zu Preisen für verschiedene TPU-Einzelgeräte und TPU-Pods finden Sie unter TPU-Preise. Informationen zu Preisen für die verschiedenen GPU-Typen und -Regionen, die in Compute Engine verfügbar sind, finden Sie unter GPU-Preise.