AI Infrastructure

Optionen für Unternehmen zum kostengünstigen Trainieren von Modellen für Deep Learning und maschinelles Lernen

Google Cloud kostenlos testen
  • action/check_circle_24px Erstellt mit Sketch

    KI-Beschleuniger für jeden Anwendungsfall, von kostengünstiger Inferenz bis hin zum Hochleistungs-Training

  • action/check_circle_24px Erstellt mit Sketch

    Schnellere Iterationen mit leistungsfähigen Cloud GPUs und Cloud TPUs

  • action/check_circle_24px Erstellt mit Sketch

    Einfacher Einstieg mit einer Reihe von Diensten für die Entwicklung und Bereitstellung

Wichtige Features

Wichtige Features

Cloud TPUs

Tensor Processing Units (TPUs) sind benutzerdefinierte ASICs zum Trainieren und Ausführen von neuronalen Deep-Learning-Netzwerken. Jetzt können Sie leistungsstarke und präzise Modelle kosteneffizient mit hoher Geschwindigkeit und Skalierung trainieren und ausführen.

Cloud GPUs

Eine Reihe von NVIDIA-GPUs, die eine kostengünstige Inferenz sowie vertikales und horizontales Skalierungs-Training unterstützen. Nutzen Sie RAPID und Spark mit GPUs zum Ausführen von Deep Learning. Führen Sie GPU-Arbeitslasten in Google Cloud aus und erhalten Sie so Zugriff auf branchenführende Speicher-, Netzwerk- und Datenanalysetechnologien.

CPUs

Greifen Sie beim Start einer VM-Instanz in Compute Engine auf CPU-Plattformen zu. Compute Engine umfasst eine Reihe von Intel- und AMD-Prozessoren für Ihre VMs.

Kunden

Dokumentation

Dokumentation

Grundlagen zu Google Cloud
GPUs zum Trainieren von Modellen in der Cloud verwenden

GPUs können das Training von Deep Learning-Modellen für Aufgaben wie die Bildklassifizierung, Videoanalyse und Verarbeitung natürlicher Sprache beschleunigen.

Grundlagen zu Google Cloud
TPUs zum Trainieren eines Modells verwenden

TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen. Mit Cloud TPU können Sie Ihre Trainingsjobs in AI Platform Training ausführen.

Blog
What makes TPUs fine tuned for deep learning?

Erfahren Sie mehr über die Rechenanforderungen von Deep Learning und den Einsatz von CPUs, GPUs und TPUs zur Aufgabenverarbeitung.

Grundlagen zu Google Cloud
Deep Learning VM

Deep Learning VM Images sind für Data Science- und ML-Aufgaben optimiert. Sie enthalten vorinstallierte zentrale ML-Frameworks und -Tools und können mit GPUs verwendet werden.

Grundlagen zu Google Cloud
AI Platform Deep Learning Container

AI Platform Deep Learning Container sind leistungsoptimierte, konsistente Umgebungen, die ein schnelles Prototyping und Implementieren von Workflows unterstützen. Sie können mit GPUs verwendet werden.

Preise

Preise

Die Preise für AI Infrastructure hängen von den ausgewählten Produkten ab. Sie können AI Infrastructure kostenlos testen.

Cloud TPU Cloud GPU
Informationen zu Preisen für verschiedene TPU-Einzelgeräte und TPU-Pods finden Sie unter TPU-Preise. Informationen zu Preisen für die verschiedenen GPU-Typen und -Regionen, die in Compute Engine verfügbar sind, finden Sie unter GPU-Preise.