AI Infrastructure

Optionen für Unternehmen zum kostengünstigen Trainieren von Modellen für Deep Learning und maschinelles Lernen
  • action/check_circle_24px Erstellt mit Sketch.

    KI-Beschleuniger für jeden Anwendungsfall, von kostengünstiger Inferenz bis hin zum Hochleistungs-Training

  • action/check_circle_24px Erstellt mit Sketch.

    Schnellere Iterationen mit leistungsfähigen Cloud GPUs und Cloud TPUs

  • action/check_circle_24px Erstellt mit Sketch.

    Einfacher Einstieg mit einer Reihe von Diensten für die Entwicklung und Bereitstellung

Wichtige Features

Wichtige Features

Cloud TPUs

Tensor Processing Units (TPUs) sind benutzerdefinierte ASICs zum Trainieren und Ausführen von neuronalen Deep-Learning-Netzwerken. Jetzt können Sie leistungsstarke und präzise Modelle kosteneffizient mit hoher Geschwindigkeit und Skalierung trainieren und ausführen.

Cloud GPUs

Eine Reihe von NVIDIA-GPUs, die eine kostengünstige Inferenz sowie vertikales und horizontales Skalierungs-Training unterstützen. Nutzen Sie RAPID und Spark mit GPUs zum Ausführen von Deep Learning. Führen Sie GPU-Arbeitslasten in Google Cloud aus und erhalten Sie so Zugriff auf branchenführende Speicher-, Netzwerk- und Datenanalysetechnologien.

CPUs

Greifen Sie beim Start einer VM-Instanz in Compute Engine auf CPU-Plattformen zu. Compute Engine umfasst eine Reihe von Intel- und AMD-Prozessoren für Ihre VMs.

Dokumentation

Dokumentation

Google Cloud Basics
GPUs zum Trainieren von Modellen in der Cloud verwenden

GPUs können das Training von Deep Learning-Modellen für Aufgaben wie die Bildklassifizierung, Videoanalyse und Verarbeitung natürlicher Sprache beschleunigen.

Google Cloud Basics
TPUs zum Trainieren eines Modells verwenden

TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen. Mit Cloud TPU können Sie Ihre Trainingsjobs in AI Platform Training ausführen.

Tutorial
What makes TPUs fine-tuned for deep learning?

Erfahren Sie mehr über die Rechenanforderungen von Deep Learning und den Einsatz von CPUs, GPUs und TPUs zur Aufgabenverarbeitung.

Google Cloud Basics
Deep Learning VM

Deep Learning VM Images sind für Data Science- und ML-Aufgaben optimiert. Sie enthalten vorinstallierte zentrale ML-Frameworks und -Tools und können mit GPUs verwendet werden.

Google Cloud Basics
AI Platform Deep Learning Container

AI Platform Deep Learning Container sind leistungsoptimierte, konsistente Umgebungen, die ein schnelles Prototyping und Implementieren von Workflows unterstützen. Sie können mit GPUs verwendet werden.

Preise

Preise

Die Preise für AI Infrastructure hängen von den ausgewählten Produkten ab. Sie können AI Infrastructure kostenlos testen.

Cloud TPU Cloud GPU
Informationen zu Preisen für verschiedene TPU-Einzelgeräte und TPU-Pods finden Sie unter TPU-Preise. Informationen zu Preisen für die verschiedenen GPU-Typen und -Regionen, die in Compute Engine verfügbar sind, finden Sie unter GPU-Preise.