AI Infrastructure
Optionen für Unternehmen zum kostengünstigen Trainieren von Modellen für Deep Learning und maschinelles Lernen
Google Cloud kostenlos testen-
KI-Beschleuniger für jeden Anwendungsfall, von kostengünstiger Inferenz bis hin zum Hochleistungs-Training
-
Schnellere Iterationen mit leistungsfähigen Cloud GPUs und Cloud TPUs
-
Einfacher Einstieg mit einer Reihe von Diensten für die Entwicklung und Bereitstellung
Wichtige Features
Wichtige Features
Cloud TPUs
Tensor Processing Units (TPUs) sind benutzerdefinierte ASICs zum Trainieren und Ausführen von neuronalen Deep-Learning-Netzwerken. Jetzt können Sie leistungsstarke und präzise Modelle kosteneffizient mit hoher Geschwindigkeit und Skalierung trainieren und ausführen.
Cloud GPUs
Eine Reihe von NVIDIA-GPUs, die eine kostengünstige Inferenz sowie vertikales und horizontales Skalierungs-Training unterstützen. Nutzen Sie RAPID und Spark mit GPUs zum Ausführen von Deep Learning. Führen Sie GPU-Arbeitslasten in Google Cloud aus und erhalten Sie so Zugriff auf branchenführende Speicher-, Netzwerk- und Datenanalysetechnologien.
CPUs
Greifen Sie beim Start einer VM-Instanz in Compute Engine auf CPU-Plattformen zu. Compute Engine umfasst eine Reihe von Intel- und AMD-Prozessoren für Ihre VMs.
Kunden
Dokumentation
Dokumentation
GPUs zum Trainieren von Modellen in der Cloud verwenden
GPUs können das Training von Deep Learning-Modellen für Aufgaben wie die Bildklassifizierung, Videoanalyse und Verarbeitung natürlicher Sprache beschleunigen.
TPUs zum Trainieren eines Modells verwenden
TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen. Mit Cloud TPU können Sie Ihre Trainingsjobs in AI Platform Training ausführen.
What makes TPUs fine tuned for deep learning?
Erfahren Sie mehr über die Rechenanforderungen von Deep Learning und den Einsatz von CPUs, GPUs und TPUs zur Aufgabenverarbeitung.
Deep Learning VM
Deep Learning VM Images sind für Data Science- und ML-Aufgaben optimiert. Sie enthalten vorinstallierte zentrale ML-Frameworks und -Tools und können mit GPUs verwendet werden.
AI Platform Deep Learning Container
AI Platform Deep Learning Container sind leistungsoptimierte, konsistente Umgebungen, die ein schnelles Prototyping und Implementieren von Workflows unterstützen. Sie können mit GPUs verwendet werden.
Preise
Preise
Die Preise für AI Infrastructure hängen von den ausgewählten Produkten ab. Sie können AI Infrastructure kostenlos testen.
Cloud TPU | Cloud GPU |
---|---|
Informationen zu Preisen für verschiedene TPU-Einzelgeräte und TPU-Pods finden Sie unter TPU-Preise. | Informationen zu Preisen für die verschiedenen GPU-Typen und -Regionen, die in Compute Engine verfügbar sind, finden Sie unter GPU-Preise. |
Cloud AI-Produkte entsprechen den hier aufgeführten SLA-Richtlinien. Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.