Einrichtung für Vertex AI Experiments

Vertex AI Experiments wird vom Vertex AI SDK für Python und die Google Cloud Console unterstützt. Vertex AI Experiments erfordert und hängt von Vertex ML Metadata ab.

Einrichten

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. Enable the required API.

    Enable the API

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  7. Enable the required API.

    Enable the API

  8. Ein Dienstkonto erstellen. Weitere Informationen finden Sie unter Dienstkonto mit erforderlichen Berechtigungen erstellen.
  9. Installieren Sie das Vertex AI SDK für Python.
  10. Prüfen Sie, ob der default-Metadatenspeicher in Ihrem Projekt vorhanden ist. (erforderlich)
    • Wenn Sie prüfen möchten, ob Ihr Projekt den default-Metadatenspeicher hat, rufen Sie in der Google Cloud Console die Metadata-Seite auf.
    • Wenn der default-Metadatenspeicher nicht vorhanden ist, wird er erstellt, wenn
      • Sie den ersten PipelineJob ausführen,
      • Alternativ können Sie Ihren ersten Test im Vertex AI SDK für Python erstellen.
        Optional: Informationen zur Konfiguration mit CMEK finden Sie unter Metadatenspeicher Ihres Projekts konfigurieren.

Unterstützte Standorte

In der Tabelle Featureverfügbarkeit werden die verfügbaren Standorte für Vertex AI Experiments aufgeführt. Wenn Sie Vertex AI-Pipelines oder Vertex AI TensorBoard verwenden, müssen diese sich am selben Standort wie Ihr Vertex AI-Test befinden.

Nächste Schritte

Relevante Notebookanleitungen

  1. Trainierte und bewertete Modelle vergleichen
  2. Modelltraining mit vordefiniertem Daten-Vorverarbeitungscode
  3. Pipelineausführungen vergleichen
  4. Automatisches Logging