Zum Hauptinhalt springen
Google Cloud
Dokumentation Technologiebereiche
  • KI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Compute
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring
  • Sicherheit
  • Storage
Produktübergreifende Tools
  • Zugriffs- und Ressourcenverwaltung
  • Kosten- und Nutzungsmanagement
  • Google Cloud SDK, Sprachen, Frameworks und Tools
  • Infrastruktur als Code
  • Migration
Verwandte Websites
  • Google Cloud-Startseite
  • Kostenlose Testversion und kostenlose Stufe
  • Architecture Center
  • Blog
  • Vertrieb kontaktieren
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Google Cloud Marketplace-Dokumentation
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud-Support
  • Google Cloud Tech-YouTube-Kanal
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Anmelden
  • Vertex AI
Leitfäden Referenzen Beispiele Support Ressourcen
Kontakt Jetzt kostenlos testen
Google Cloud
  • Dokumentation
    • Leitfäden
    • Referenzen
    • Beispiele
    • Support
    • Ressourcen
  • Technologiebereiche
    • Mehr
  • Produktübergreifende Tools
    • Mehr
  • Verwandte Websites
    • Mehr
  • Console
  • Kontakt
  • Jetzt kostenlos testen
  • Erste Schritte
  • Übersicht
  • Einführung in Vertex AI
  • MLOps in Vertex AI
  • Schnittstellen für Vertex AI
  • Leitfäden für Vertex AI-Einsteiger
    • AutoML-Modell trainieren
    • Benutzerdefiniertes Modell trainieren
    • Inferenz von einem benutzerdefinierten Modell abrufen
    • Modell mit Vertex AI und Python SDK trainieren
      • Einführung
      • Voraussetzungen
      • Notebook erstellen
      • Dataset erstellen
      • Trainingsscript erstellen
      • Modell trainieren
      • Schlussfolgerung ziehen
  • Integrierte ML-Frameworks
    • PyTorch
    • TensorFlow
  • Vertex AI für BigQuery-Nutzer
  • Glossar
  • Los gehts
  • Projekt- und Entwicklungsumgebung einrichten
  • Vertex AI SDK for Python installieren
  • Trainingsmethode auswählen
  • Anleitung lesen
    • Übersicht über Anleitungen
    • AutoML-Anleitungen
      • Hello-Bilddaten
        • Übersicht
        • Projekt und Umgebung einrichten
        • Dataset erstellen und Bilder importieren
        • AutoML-Bildklassifizierungsmodell trainieren
        • Modellleistung bewerten und analysieren
        • Modell auf einem Endpunkt bereitstellen und eine Inferenz durchführen
        • Projekt bereinigen
      • Tabellarische Hello-Daten
        • Übersicht
        • Projekt und Umgebung einrichten
        • Dataset erstellen und AutoML-Klassifizierungsmodell trainieren
        • Modell bereitstellen und Inferenz anfordern
        • Projekt bereinigen
    • Benutzerdefinierte Trainingsanleitungen
      • Benutzerdefiniertes tabellarisches Modell trainieren
      • TensorFlow Keras-Bildklassifizierungsmodell trainieren
        • Übersicht
        • Projekt und Umgebung einrichten
        • Benutzerdefiniertes Bildklassifizierungsmodell trainieren
        • Vorhersagen aus einem benutzerdefinierten Bildklassifizierungsmodell bereitstellen
        • Projekt bereinigen
      • Bildklassifizierungsmodell mit benutzerdefinierten Daten optimieren
    • Anleitungen für benutzerdefiniertes Training in Notebooks
  • Generative KI und LLMs verwenden
  • Mehr zu Generativer KI
  • Vertex AI-Entwicklungstools verwenden
  • Entwicklertools – Übersicht
  • Vertex AI SDK
    • Übersicht
    • Einführung in das Vertex AI SDK für Python
    • Vertex AI SDK für Python-Klassen
      • Übersicht über die Vertex AI SDK-Klassen
      • Datenklassen
      • Trainingsbezogene Klassen
      • Modellklassen
      • Vorhersageklassen
      • Tracking-Klassen
  • Vertex AI in Notebooks verwenden
    • Notebooklösung wählen
    • Colab Enterprise
      • Kurzanleitung:Notebook mithilfe der Console erstellen
      • Mit einer Laufzeit verbinden
      • Laufzeiten und Laufzeitvorlagen verwalten
        • Laufzeitvorlage erstellen.
        • Laufzeit erstellen
    • Vertex AI Workbench
      • Einführung
      • Notebook-Anleitungen
      • Los gehts
        • Instanz mithilfe der Console erstellen
        • Notebookausführung planen
      • Instanz einrichten
        • Instanz erstellen
        • Spezifische Version einer Instanz erstellen
        • Instanz mit Zugriff auf Nutzeranmeldedaten erstellen
        • Instanz mit Confidential Computing erstellen
        • Conda-Umgebung hinzufügen
        • Herunterfahren bei Inaktivität
        • Instanz mit einem benutzerdefinierten Container erstellen
        • Instanz mit aktiviertem Dataproc erstellen
        • Instanz mit Anmeldedaten eines Drittanbieters erstellen
        • Funktionen über Metadaten verwalten
        • Reservierungen verwenden
      • Datenverbindung herstellen
        • Daten in BigQuery über JupyterLab abfragen
        • Auf Cloud Storage-Buckets und -Dateien in JupyterLab zugreifen
      • Daten untersuchen und visualisieren
        • Daten in BigQuery untersuchen und visualisieren
      • Warten
        • Conda-Umgebung verwalten
        • Sichern und wiederherstellen
          • Notebook auf GitHub speichern
          • Snapshot verwenden
          • Cloud Storage verwenden
        • Instanz herunterfahren
        • Upgrade der Umgebung einer Instanz durchführen
        • Mit SSH auf JupyterLab zugreifen
        • Daten zu einer neuen Instanz migrieren
        • Maschinentyp ändern und GPUs konfigurieren
        • Ressourcen mit Terraform bereitstellen
      • Überwachen
        • Zustand überwachen
      • Zugriff kontrollieren
        • Zugriffssteuerung
        • Zugriff auf eine Instanz verwalten
        • Zugriff auf die JupyterLab-Schnittstelle einer Instanz verwalten
        • Kundenverwaltete Verschlüsselungsschlüssel verwenden
        • Instanz innerhalb eines Dienstperimeters verwenden
      • Fehlerbehebung bei Vertex AI Workbench
      • Versionshinweise zu Vertex AI Workbench
      • Verwaltete Notebooks
        • Einführung in verwaltete Notebooks
        • Los gehts
          • Verwaltete Notebookinstanz mithilfe der Cloud Console erstellen
          • Ausführung eines verwalteten Notebooks planen
        • Instanz für verwaltete Notebooks einrichten
          • Instanz mit benutzerdefiniertem Container erstellen
          • Verwaltete Notebookinstanz in einem Dataproc-Cluster ausführen
          • Dataproc Serverless Spark mit verwalteten Notebooks verwenden
          • Herunterfahren bei Inaktivität
          • Verwaltete Notebookversionen
        • Datenverbindung herstellen
          • Daten in BigQuery über JupyterLab abfragen
          • Auf Cloud Storage-Buckets und -Dateien in JupyterLab zugreifen
        • Daten untersuchen und visualisieren
          • Übersicht
          • Daten in BigQuery untersuchen und visualisieren
        • Modell entwickeln
          • Modellentwicklung in einer verwalteten Notebookinstanz
        • Bereitstellen
          • Notebook-Dateien mit dem Executor ausführen
          • Notebook-Ausführungen mit Parametern
        • Warten
          • Zu einer Vertex AI Workbench-Instanz migrieren
          • Notebook auf GitHub speichern
          • Maschinentyp ändern und GPUs einer verwalteten Notebookinstanz konfigurieren
          • Upgrade einer Umgebung für eine verwaltete Notebookinstanz durchführen
          • Daten zu einer neuen verwalteten Notebookinstanz migrieren
        • Überwachen
          • Audit-Logging
        • Zugriff kontrollieren
          • Zugriffssteuerung
          • Zugriff auf eine Instanz verwalten
          • Zugriff auf die JupyterLab-Schnittstelle einer Instanz verwalten
          • Kundenverwaltete Verschlüsselungsschlüssel verwenden
          • Netzwerk einrichten
          • Verwaltete Notebookinstanz innerhalb eines Dienstperimeters verwenden
        • Fehlerbehebung bei verwalteten Notebooks
      • Nutzerverwaltete Notebooks
        • Einführung in nutzerverwaltete Notebooks
        • Los gehts
          • Nutzerverwaltete Notebookinstanz mithilfe der Cloud Console erstellen
        • Nutzerverwaltete Notebookinstanz einrichten
          • Spezifische Version einer Instanz erstellen
          • Abhängigkeiten installieren
          • VM-Image auswählen
          • Instanz mit benutzerdefiniertem Container erstellen
        • Daten auswerten
          • Data Science mit R in Google Cloud: Anleitung zur explorativen Datenanalyse
        • Überwachen
          • Zustand überwachen
          • Audit-Logging
        • Zugriff kontrollieren
          • Zugriffssteuerung
          • Zugriff auf eine Instanz verwalten
          • Zugriff auf die JupyterLab-Schnittstelle einer Instanz verwalten
          • Vom Kunden verwaltete Verschlüsselungsschlüssel
          • Nutzerverwaltete Notebookinstanz innerhalb eines Dienstperimeters verwenden
          • Shielded VM mit nutzerverwalteten Notebooks verwenden
          • Anleitung: Notebookinstanz in einem VPC-Netzwerk erstellen
        • Warten
          • Zu einer Vertex AI Workbench-Instanz migrieren
          • Notebook auf GitHub speichern
          • Daten über einen Snapshot sichern
          • Nutzerverwaltete Notebookinstanz herunterfahren
          • Maschinentyp ändern und GPUs einer vom Nutzer verwalteten Notebookinstanz konfigurieren
          • Upgrade einer Umgebung für eine nutzerverwaltete Notebookinstanz ausführen
          • Daten zu einer neuen nutzerverwalteten Notebookinstanz migrieren
          • Legacy-Instanz bei der Notebooks API registrieren
          • Mit SSH auf JupyterLab zugreifen
        • Fehlerbehebung bei nutzerverwalteten Notebooks
  • Terraform-Support für Vertex AI
  • Entwicklung von Vorhersagemodellen mit KI
  • Übersicht
  • Entwicklung von AutoML-Modellen
    • AutoML-Training – Übersicht
    • Bilddaten
      • Klassifizierung
        • Daten vorbereiten
        • Dataset erstellen
        • Modell trainieren
        • Modell bewerten
        • Vorhersagen abrufen
        • Ergebnisse interpretieren
      • Objekterkennung
        • Daten vorbereiten
        • Dataset erstellen
        • Modell trainieren
        • Modell bewerten
        • Vorhersagen abrufen
        • Ergebnisse interpretieren
      • Bilddaten mit Base64 codieren
      • AutoML Edge-Modell exportieren
    • Tabellarische Daten
      • Übersicht
      • Einführung in tabellarische Daten
      • Tabellarische Workflows
        • Übersicht
        • Feature Engineering
        • End-to-End-AutoML
          • Übersicht
          • Modell trainieren
          • Onlineinferenzen abrufen
          • Batchinferenzen abrufen
        • TabNet
          • Übersicht
          • Modell trainieren
          • Onlineinferenzen abrufen
          • Batchinferenzen abrufen
        • Wide & Deep
          • Übersicht
          • Modell trainieren
          • Onlineinferenzen abrufen
          • Batchinferenzen abrufen
        • Prognosen
          • Übersicht
          • Modell trainieren
          • Onlineinferenzen abrufen
          • Batchinferenzen abrufen
        • Preise
        • Dienstkonten
        • Kontingente verwalten
      • Klassifizierung und Regression mit AutoML durchführen
        • Übersicht
        • Kurzanleitung: AutoML-Klassifizierung (Cloud Console)
        • Trainingsdaten vorbereiten
        • Dataset erstellen
        • Modell trainieren
        • Modell bewerten
        • Modellarchitektur aufrufen
        • Onlineinferenzen abrufen
        • Batchinferenzen abrufen
        • Modell exportieren
      • Prognosen mit AutoML erstellen
        • Übersicht
        • Trainingsdaten vorbereiten
        • Dataset erstellen
        • Modell trainieren
        • Modell bewerten
        • Schlussfolgerungen ziehen
        • Hierarchische Prognose
      • Prognosen mit ARIMA+ erstellen
      • Prognosen mit Prophet ausführen
      • Entitätsabgleich durchführen
      • Feature-Attributionen für Klassifizierung und Regression
      • Feature-Attributionen für Prognosen
      • Datentypen und Datenumwandlungen für tabellarische AutoML-Daten
      • Trainingsparameter für die Prognose
      • Datenaufteilungen für Tabellendaten
      • Best Practices für das Erstellen von tabellarischen Trainingsdaten
      • Prognose mit Timeseries Insights
    • AutoML Edge-Modell trainieren
      • Console verwenden
      • API verwenden
    • AutoML Text
      • Von AutoML Text zu Gemini migrieren
      • Gemini für AutoML-Textnutzer
  • Vertex AI Training
    • Übersicht über benutzerdefiniertes Training in Vertex AI
    • Daten laden und vorbereiten
      • Übersicht über die Datenvorbereitung
      • Cloud Storage als bereitgestelltes Dateisystem verwenden
      • NFS-Freigabe für benutzerdefiniertes Training bereitstellen
      • Verwaltete Datasets verwenden
    • Trainingsanwendung vorbereiten
      • Informationen zum benutzerdefinierten Trainingsdienst
      • Trainingscode vorbereiten
      • Vordefinierte Container verwenden
        • Python-Trainingsanwendung für einen vordefinierten Container erstellen
        • Vordefinierte Container für benutzerdefiniertes Training
      • Benutzerdefinierte Container verwenden
        • Benutzerdefinierte Container für das Training
        • Benutzerdefinierten Container erstellen
        • Trainingscode lokal containerisieren und ausführen
      • Deep Learning VM Images und Container verwenden
    • Auf einer nichtflüchtigen Ressource trainieren
      • Übersicht
      • Nichtflüchtige Ressource erstellen
      • Trainingsjobs für eine nichtflüchtige Ressource ausführen
      • Informationen zu nichtflüchtigen Ressourcen abrufen
      • Nichtflüchtige Ressource neu starten
      • Nichtflüchtige Ressource löschen
    • Trainingsjob konfigurieren
      • Benutzerdefinierte Trainingsmethode auswählen
      • Containereinstellungen für das Training konfigurieren
      • Rechenressourcen für das Training konfigurieren
      • Reservierungen mit Training verwenden
      • Spot-VMs für das Training verwenden
    • Trainingsjob senden
      • Benutzerdefinierte Jobs erstellen
      • Hyperparameter-Abstimmung
        • Hyperparameter-Feinabstimmung
        • Hyperparameter-Feinabstimmung verwenden
      • Schulungspipelines erstellen
      • Jobs basierend auf der Ressourcenverfügbarkeit planen
      • Verteiltes Training verwenden
      • Mit Cloud TPU-VMs trainieren
      • Private IP-Adresse für benutzerdefiniertes Training verwenden
      • Private Service Connect-Schnittstelle für das Training verwenden (empfohlen)
    • Neural Architecture Search durchführen
      • Übersicht
      • Umgebung einrichten
      • Anleitungen für Einsteiger
      • Best Practices und Workflow
      • Proxy-Aufgabendesign
      • Trainingsgeschwindigkeit für PyTorch optimieren
      • Vordefinierte Trainingscontainer und Suchbereiche verwenden
    • Monitoring und Fehlerbehebung
      • Training mit interaktiver Shell überwachen und Fehler beheben
      • Leistung des Profilmodelltrainings
    • Mit Vertex AI Vizier optimieren
      • Übersicht über Vertex AI Vizier
      • Vertex AI Vizier-Studien erstellen
      • Vertex AI Vizier-Notebook-Anleitungen
    • Schlussfolgerungen ziehen
    • Anleitung: Pipeline für kontinuierliches Training erstellen
    • Benutzerdefinierte Einschränkungen für Organisationsrichtlinien erstellen
  • Ray in Vertex AI
    • Ray on Vertex AI – Übersicht
    • Einrichtung für Ray in Vertex AI
    • Ray-Cluster in Vertex AI erstellen
    • Ray-Cluster in Vertex AI überwachen
    • Ray-Cluster in Vertex AI skalieren
    • Ray-Anwendung in Vertex AI entwickeln
    • Spark auf Ray-Cluster in Vertex AI ausführen
    • Ray in Vertex AI mit BigQuery verwenden
    • Modell bereitstellen und Inferenzen abrufen
    • Ray-Cluster löschen
    • Ray on Vertex AI – Notebook-Anleitungen
  • Entwicklung von generativen KI-Modellen
  • Übersicht
  • Datensätze erstellen und verwalten
  • Übersicht
  • Datenaufteilungen für AutoML-Modelle
  • Annotationssatz erstellen
  • Annotationssatz löschen
  • Labels hinzufügen (Console)
  • Metadaten und Annotationen aus einem Dataset exportieren
  • Dataset-Versionen verwalten
  • Mit Data Catalog nach Modell- und Dataset-Ressourcen suchen
  • Schlussfolgerungen ziehen
  • Übersicht
  • Modelle für die Inferenz konfigurieren
    • Modellartefakte für die Inferenz exportieren
    • Vordefinierte Container für die Inferenz
    • Anforderungen an benutzerdefinierte Container für die Inferenz
    • Benutzerdefinierten Container für die Inferenz verwenden
    • Beliebige benutzerdefinierte Routen verwenden
    • Optimierte TensorFlow-Laufzeit verwenden
    • Inferenz mit NVIDIA Triton bereitstellen
    • Benutzerdefinierte Inferenzroutinen
  • Onlineinferenzen abrufen
    • Endpunkt erstellen
      • Endpunkttyp auswählen
      • Öffentlichen Endpunkt erstellen
      • Dedizierte öffentliche Endpunkte verwenden (empfohlen)
      • Dedizierte private Endpunkte auf Grundlage von Private Service Connect verwenden (empfohlen)
      • Endpunkte für den Zugriff auf private Dienste verwenden
    • Modell auf einem Endpunkt bereitstellen
      • Übersicht über die Modellbereitstellung
      • Rechenressourcen für die Inferenz
      • Modell mit der Google Cloud Console bereitstellen
      • Modell mit der gcloud CLI oder der Vertex AI API bereitstellen
      • Autoscaling für die Inferenz verwenden
      • Bereitgestelltes Modell durch Rolling Deployment ersetzen
      • Bereitstellung eines Modells aufheben und den Endpunkt löschen
      • Cloud TPUs für die Onlineinferenz verwenden
      • Reservierungen mit Online-Inferenz verwenden
      • Flex-Start-VMs für die Inferenz verwenden
      • Spot-VMs für die Inferenz verwenden
    • Onlineinferenz abrufen
    • Messwerte für die Onlineinferenz ansehen
      • Endpunktmesswerte ansehen
      • DCGM-Messwerte ansehen
    • Ressourcen für mehrere Bereitstellungen gemeinsam nutzen
    • Logging von Onlineinferenzen verwenden
  • Batchinferenzen abrufen
    • Batchinferenzen von einem benutzerdefinierten Modell abrufen
    • Reservierungen mit Batchinferenz verwenden
    • Batchvorhersagen von einem selbst bereitgestellten Model Garden-Modell abrufen
  • Generative KI-Modelle bereitstellen
    • Generative KI-Modelle bereitstellen
    • Offene Gemma-Modelle mit Cloud TPUs mit Saxml bereitstellen
    • Offene Llama 3-Modelle mit Cloud TPUs mit mehreren Hosts mit Saxml bereitstellen
    • DeepSeek-V3-Modell mit GPU-Bereitstellung auf mehreren Hosts bereitstellen
  • Benutzerdefinierte Organisationsrichtlinien
  • Vertex AI-Notebook-Anleitungen für die Inferenz
  • Suchen nach Vektorähnlichkeiten durchführen
  • Vektorsuche – Übersicht
  • Jetzt ausprobieren
  • Los gehts
    • Kurzanleitung: Vektorsuche
    • Hinweis
    • Notebook-Anleitungen
  • Hybridsuche
  • Index erstellen und verwalten
    • Format und Struktur von Eingabedaten
    • Index erstellen und verwalten
    • Speicheroptimierte Indexe
    • Parameter für die Indexkonfiguration
    • Index aktualisieren und neu erstellen
    • Nach Vektorübereinstimmungen filtern
    • Indexdaten aus BigQuery importieren
    • Einbettungen mit Metadaten
  • Index bereitstellen und abfragen
    • Private Service Connect (empfohlen)
      • Vektorsuche mit Private Service Connect einrichten
      • Abfrage
      • Authentifizierung mit JSON Web Token
    • Öffentlicher Endpunkt
      • Bereitstellen
      • Abfrage
    • Zugriff auf private Dienste
      • VPC-Netzwerk-Peering-Verbindung einrichten
      • Bereitstellen
      • Abfrage
      • Authentifizierung mit JSON Web Token
  • Bereitgestellten Index überwachen
  • Benutzerdefinierte Organisationsrichtlinien verwenden
  • Support anfordern
  • Machine Learning Operations (MLOps)
  • Funktionen verwalten
    • Feature-Verwaltung in Vertex AI
    • Vertex AI Feature Store
      • Informationen zu Vertex AI Feature Store
      • Features einrichten
        • Datenquelle vorbereiten
        • Featuregruppe erstellen
        • Feature erstellen
      • Online-Bereitstellung einrichten
        • Onlinebereitstellungstypen
        • Eine Onlinespeicherinstanz erstellen
        • Featureansicht-Instanz erstellen
      • Zugriff kontrollieren
        • Ressourcenzugriff steuern
      • Onlinespeicher synchronisieren
        • Datensynchronisierung starten
        • Synchronisierungsvorgänge auflisten
        • Features in einer Featureansicht aktualisieren
      • Features bereitstellen
        • Features aus dem Onlineshop bereitstellen
        • Verlaufs-Featurewerte bereitstellen
      • Überwachen
        • Funktionen überwachen
      • Funktionsressourcen verwalten
        • Featuregruppen auflisten
        • Features auflisten
        • Featuregruppe aktualisieren
        • Feature aktualisieren
        • Featuregruppe löschen
        • Feature löschen
      • Onlineshop-Ressourcen verwalten
        • Onlinespeicher auflisten
        • Featureansichten auflisten
        • Einen Onlinespeicher aktualisieren
        • Featureansicht aktualisieren
        • Einen Onlinespeicher löschen
        • Eine Featureansicht löschen
      • Feature-Metadaten
        • Labels aktualisieren
      • Nach Ressourcen suchen
        • Nach Ressourcen suchen
        • In Data Catalog nach Ressourcenmetadaten suchen
      • Einbettungen verwalten
        • Mithilfe von Einbettungen suchen
      • Notebook-Anleitungen
        • Tutorial-Notebooks für Vertex AI Feature Store
    • Vertex AI Feature Store (Legacy)
      • Mehr zu Vertex AI Feature Store (Legacy)
      • Datenmodell und Ressourcen
      • Anforderungen an Quelldaten
      • Einrichtung
      • Best Practices
      • Vertex AI Feature Store (Legacy) verwenden
        • Feature Stores verwalten
        • Entitätstypen verwalten
        • Funktionen verwalten und finden
        • Batchimport
        • Streamingimport
        • Onlinebereitstellung
        • Trainingsdaten abrufen
        • Featurewerte exportieren
        • Featurewerte löschen
        • Monitoring
        • Ressourcenzugriff steuern
  • Modelle verwalten
    • Einführung in Vertex AI Model Registry
    • Versionsverwaltung in Model Registry
    • Modelle in Model Registry importieren
    • Modelle in Model Registry kopieren
    • Modell löschen
    • In BigQuery ML einbinden
    • Modellaliasse verwenden
    • Modelllabels verwenden
    • Mit Data Catalog nach Modell- und Dataset-Ressourcen suchen
  • Modelle bewerten
    • Modellbewertung in Vertex AI
    • Modellbewertung in Vertex AI durchführen
    • Modellbewertung für Fairness
      • Einführung in die Modellbewertung für Fairness
      • Daten-Verzerrungsmesswerte für Vertex AI
      • Modell-Verzerrungsmesswerte für Vertex AI
    • Notebook-Tutorials zur Modellbewertung
  • ML-Workflows mit Pipelines orchestrieren
    • Einführung
    • Interfaces
    • Projekt konfigurieren
    • Pipeline erstellen
    • Pipeline ausführen
    • Pipelinevorlagen verwenden
      • Pipelinevorlage erstellen, hochladen und verwenden
      • Vordefinierte Vorlage aus der Vorlagengalerie verwenden
    • Pipeline konfigurieren
      • Ausführungs-Caching konfigurieren
      • Fehlerrichtlinie konfigurieren
      • Wiederholungsversuche für eine Pipeline-Aufgabe konfigurieren
      • Maschinentypen für einen Pipelineschritt angeben
      • Google Cloud-Maschinenressourcen mit Vertex AI Pipelines anfordern
      • Private Service Connect-Schnittstelle konfigurieren (empfohlen)
      • Secrets mit Secret Manager konfigurieren
      • Pipeline-Ausführung für eine nichtflüchtige Ressource konfigurieren
    • Pipelineausführungen planen und auslösen
      • Pipeline-Ausführung mit der Scheduler API planen
      • Mit Pub/Sub ausgeführte Pipeline auslösen
    • Pipelineausführungen abbrechen oder löschen
      • Pipelineausführungen abbrechen
      • Pipelineausführungen löschen
    • Pipeline noch einmal ausführen
    • Pipeline-Ausführung überwachen
      • Pipeline-Messwerte ansehen
      • Pipeline-Joblogs ansehen
      • Logs an eine Cloud Pub/Sub-Senke weiterleiten
      • E-Mail-Benachrichtigungen konfigurieren
    • Ergebnisse visualisieren
      • Pipelineergebnisse visualisieren und analysieren
      • Herkunft von Pipeline-Artefakten verfolgen
      • Ausgabe-HTML und Markdown
    • Ressourcen-Labeling von Vertex AI Pipelines
    • Informationen zu den Kosten für die Pipelineausführung
    • Von Kubeflow Pipelines zu Vertex AI Pipelines migrieren
    • Benutzerdefinierte Einschränkungen verwenden
    • Komponenten der Google Cloud-Pipeline
      • Schnelleinstieg
      • Einführung in die Komponenten der Google Cloud-Pipeline
      • Liste der Google Cloud-Pipelinekomponenten
      • Google Cloud-Pipeline-Komponenten verwenden
      • Eigene Pipeline-Komponenten erstellen
    • Vertex AI Pipelines-Anleitungen
      • Tutorial-Notebooks
  • ML-Metadaten verfolgen und analysieren
    • Einführung in Vertex ML Metadata
    • Datenmodell und Ressourcen
    • Metadatenspeicher Ihres Projekts konfigurieren
    • Vertex ML Metadata verwenden
      • Vertex ML Metadata verfolgen
      • Vertex ML-Metadaten analysieren
      • Vertex ML-Metadaten verwalten
      • Systemschemas
      • Benutzerdefinierte Schemas erstellen und verwenden
      • Benutzerdefinierte Einschränkungen mit Metadatenspeichern verwenden
    • Vertex ML Metadata-Notebook-Anleitungen
  • Modellverhalten verstehen
    • Einführung in Explainable AI
    • Beispielbasierte Erläuterungen für benutzerdefiniertes Training konfigurieren
    • Featurebasierte Erläuterungen für benutzerdefiniertes Training konfigurieren
      • Erläuterungen konfigurieren
      • Visualisierungseinstellungen konfigurieren
      • Erläuterungen verbessern
    • Featurebasierte Erläuterungen für die AutoML-Bildklassifizierung konfigurieren
      • Visualisierungseinstellungen konfigurieren
      • Erläuterungen verbessern
    • TensorFlow für Erläuterungen verwenden
    • Erläuterungen abrufen
    • Einschränkungen von Explainable AI
    • Explainable AI-Notebook-Anleitungen
  • Modellqualität überwachen
    • Einführung in Modell-Monitoring
    • Model Monitoring v2
      • Modellmonitoring einrichten
      • Monitoring-Jobs ausführen
      • Modellmonitore verwalten
    • Model Monitoring v1
      • Schemas für Model Monitoring bereitstellen
      • Abweichung und Drift des Monitoring-Features
      • Abweichung und Drift der Featureattribution überwachen
      • Modell-Monitoring für Batchvorhersagen
  • Experimente verfolgen
    • Einführung in Vertex AI Experiments
    • Einrichtung für Vertex AI Experiments
    • Test erstellen
    • Testausführungen erstellen und verwalten
    • Logdaten
      • Daten in einer Testausführung automatisch protokollieren
      • Daten manuell in einer Testausführung loggen
    • Modelle in einer Testausführung loggen
    • Ausführungen und Artefakte verfolgen
    • Pipelineausführung zu Test hinzufügen
    • Trainingsjob mit Test-Tracking ausführen
    • Ausführungen vergleichen und analysieren
    • Vertex AI TensorBoard verwenden
      • Einführung in Vertex AI TensorBoard
      • Vertex AI TensorBoard einrichten
      • Trainingsscript konfigurieren
      • Vertex AI TensorBoard mit benutzerdefiniertem Training verwenden
      • Vertex AI TensorBoard mit Vertex AI Pipelines verwenden
      • TensorBoard-Daten manuell protokollieren
      • Vorhandene Logs hochladen
      • Vertex AI TensorBoard aufrufen
    • Notebook-Anleitungen
      • Erste Schritte mit Vertex AI Experiments
      • Pipelineausführungen vergleichen
      • Modelltraining
      • Modelle vergleichen
      • Automatisches Logging
      • Automatisches Logging für das benutzerdefinierte Training
      • Parameter und Messwerte für benutzerdefiniertes Training verfolgen
      • Veraltete Vertex AI TensorBoard-Tests löschen
      • Benutzerdefiniertes Vertex AI TensorBoard-Training mit benutzerdefiniertem Container
      • Benutzerdefiniertes Vertex AI TensorBoard-Training mit vordefiniertem Container
      • Vertex AI TensorBoard-Hyperparameter-Abstimmung mit dem HParams-Dashboard
      • Leistung des Modelltrainings mit Cloud Profiler profilieren
      • Leistung des Modelltrainings mit Cloud Profiler im benutzerdefinierten Training mit vordefiniertem Container profilieren
      • Einbindung von Vertex AI TensorBoard in Vertex AI Pipelines
  • Verwalten
  • Zugriffssteuerung
    • Zugriffssteuerung mit IAM
    • IAM-Berechtigungen
    • Projekt für ein Team einrichten
    • Zugriff auf Vertex AI-Endpunkte steuern
    • Benutzerdefiniertes Dienstkonto verwenden
    • Kundenverwaltete Verschlüsselungsschlüssel verwenden
    • Access Transparency
  • Vertex AI-Ressourcen überwachen
    • Cloud Monitoring-Messwerte
    • Informationen zu Audit-Logging
  • Netzwerk
    • Übersicht über den Netzwerkzugriff
    • Auf die Vertex AI API zugreifen
    • Über den Zugriff auf private Dienste auf Vertex AI-Dienste zugreifen
    • Zugriff auf Vertex AI-Dienste über PSC-Endpunkte
    • Zugriff auf Vertex AI-Dienste über PSC-Schnittstellen
    • VPC-Netzwerk-Peering einrichten
    • Verbindung zu anderen Netzwerken einrichten
    • Private Service Connect-Schnittstelle einrichten
    • Anleitung: Privater Zugriff auf Trainingspipelines von lokalen Umgebungen aus
    • Anleitung: Privater Zugriff auf einen Vektorsuchindex von lokalen Umgebungen aus
    • Anleitung: Zugriff auf die Generative AI API von lokalen Umgebungen aus
    • Anleitung: Privater Zugriff auf Batchvorhersagen von lokalen Umgebungen aus
    • Anleitung: Vertex AI Workbench-Instanz in einem VPC-Netzwerk erstellen
  • Sicherheit
    • VPC Service Controls
    • Zugriff auf geschützte Ressourcen von außerhalb eines Perimeters über öffentliche Endpunkte zulassen
    • Multicloud-Zugriff auf geschützte Ressourcen von außerhalb eines Perimeters zulassen
    • Zugriff auf geschützte Ressourcen von innerhalb eines Perimeters zulassen
  • Ressourcen benennen
  • Beispiele und Anleitungen
  • Notebook-Anleitungen
  • Codebeispiele
    • Alle Codebeispiele für Vertex AI
    • Codebeispiele für alle Produkte
  • KI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Compute
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring
  • Sicherheit
  • Storage
  • Zugriffs- und Ressourcenverwaltung
  • Kosten- und Nutzungsmanagement
  • Google Cloud SDK, Sprachen, Frameworks und Tools
  • Infrastruktur als Code
  • Migration
  • Google Cloud-Startseite
  • Kostenlose Testversion und kostenlose Stufe
  • Architecture Center
  • Blog
  • Vertrieb kontaktieren
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Google Cloud Marketplace-Dokumentation
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud-Support
  • Google Cloud Tech-YouTube-Kanal
Diese Seite wurde von der Cloud Translation API übersetzt.
  • Home
  • Documentation
  • AI and ML
  • Vertex AI

Vertex AI SDK

Mit dem Vertex AI SDK können Sie die generativen KI-Modelle und -Features von Google zum Erstellen von KI-gestützten Anwendungen verwenden.

Das Vertex AI SDK ist für Python, Go, Java und Node.js verfügbar. Informationen zu den einzelnen SDKs finden Sie hier:

  • Vertex AI SDK für Python
  • Vertex AI Node.js SDK
  • Vertex AI Java SDK
  • Vertex AI Go SDK

Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.

Zuletzt aktualisiert: 2025-10-19 (UTC).

  • Vorteile von Google

    • Gute Gründe für Google Cloud
    • Vertrauen und Sicherheit
    • Moderne Infrastruktur-Cloud
    • Multi-Cloud
    • Globale Infrastruktur
    • Kunden und Fallstudien
    • Analystenberichte
    • Whitepaper
  • Produkte und Preise

    • Alle Produkte ansehen
    • Alle Lösungen ansehen
    • Google Cloud für Start-ups
    • Google Cloud Marketplace
    • Google Cloud-Preise
    • Vertrieb kontaktieren
  • Support

    • Community forums
    • Support
    • Versionshinweise
    • Systemstatus
  • Ressourcen

    • GitHub
    • Erste Schritte mit Google Cloud
    • Google Cloud-Dokumentation
    • Codebeispiele
    • Cloud Architecture Center
    • Training und Zertifizierung
    • Developer Center
  • Engagieren

    • Blog
    • Events
    • X (Twitter)
    • Google Cloud auf YouTube
    • YouTube-Kanal „Google Cloud Tech“
    • Partner werden
    • Google Cloud Affiliate Program
    • Pressebereich
  • Über Google
  • Datenschutz
  • Nutzungsbedingungen der Website
  • Nutzungsbedingungen von Google Cloud
  • Manage cookies
  • Unser drittes Jahrzehnt im Einsatz für den Klimaschutz: Seien Sie dabei
  • Google Cloud-Newsletter abonnieren Abonnieren
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어