Einführung in Vertex AI Workbench-Instanzen
Vertex AI Workbench-Instanzen sind Jupyter Notebook-basierte Entwicklungsumgebungen für den gesamten Data-Science-Workflow. Sie können über das Jupyter-Notebook einer Vertex AI Workbench-Instanz mit Vertex AI und anderen Google Cloud-Diensten interagieren.
Mit den Integrationen und Funktionen von Vertex AI Workbench können Sie unter anderem einfacher auf Ihre Daten zugreifen, sie schneller verarbeiten und Notebook-Ausführungen planen.
Vertex AI Workbench-Instanzen sind mit JupyterLab vorverpackt und bieten eine vorinstallierte Suite von Deep-Learning-Paketen, einschließlich der Unterstützung für TensorFlow- und PyTorch-Frameworks. Sie können entweder ausschließlich CPU-basierte oder GPU-fähige Instanzen konfigurieren.
Vertex AI Workbench-Instanzen unterstützen die Synchronisierung mit einem GitHub-Repository. Vertex AI Workbench-Instanzen sind durch die Authentifizierung und Autorisierung von Google Cloud geschützt.
Datenzugriff
Sie können auf Ihre Daten zugreifen, ohne die JupyterLab-Benutzeroberfläche zu verlassen.
Im JupyterLab-Navigationsmenü auf einer Vertex AI Workbench-Instanz können Sie die Cloud Storage-Einbindung verwenden, um in Daten und andere Dateien zu suchen, auf die Sie Zugriff haben. Auf Cloud Storage-Buckets und -Dateien über JupyterLab zugreifen
Mit der BigQuery-Integration können Sie auch Tabellen durchsuchen, auf die Sie Zugriff haben, Abfragen schreiben, Ergebnisse in der Vorschau anzeigen und Daten in Ihr Notebook laden. Daten in BigQuery-Tabellen über JupyterLab abfragen
Notebook-Ausführungen ausführen
Führen Sie mit dem Executor eine Notebookdatei als einmalige Ausführung oder nach einem Zeitplan aus. Wählen Sie die Umgebung und Hardware aus, in der die Ausführung ausgeführt werden soll. Der Code Ihres Notebooks wird in dem benutzerdefinierten Vertex AI-Training ausgeführt, was das Ausführen verteilter Trainings, das Optimieren von Hyperparametern oder das Planen kontinuierlicher Trainingsjobs erleichtern kann.
Sie können Parameter in Ihrer Ausführung verwenden, um bestimmte Änderungen an jeder Ausführung vorzunehmen. Sie können beispielsweise ein anderes zu verwendendes Dataset angeben, die Lernrate für Ihr Modell oder die Version des Modells ändern.
Sie können ein Notebook so einstellen, dass es nach einem wiederkehrenden Zeitplan ausgeführt wird. Selbst wenn die Instanz heruntergefahren wurde, führt Vertex AI Workbench Ihre Notebookdatei aus und speichert die Ergebnisse, sodass Sie sie ansehen und mit anderen teilen können.
Informationen teilen
Ausgeführte Notebookausführungen werden in einem Cloud Storage-Bucket gespeichert, sodass Sie Ihre Informationen mit anderen teilen können, indem Sie Zugriff auf die Ergebnisse gewähren. Informationen dazu finden Sie im vorherigen Abschnitt zum Ausführen der Notebook-Ausführungen.
Instanz sichern
Sie können Ihre Vertex AI Workbench-Instanz über das von Google verwaltete Standardnetzwerk bereitstellen, das ein Standard-VPC-Netzwerk und ein Subnetz verwendet. Anstelle des Standardnetzwerks können Sie ein VPC-Netzwerk angeben, das mit Ihrer Instanz verwendet werden soll.
Standardmäßig verschlüsselt Google Cloud Daten im inaktiven Zustand automatisch mit von Google verwalteten Verschlüsselungsschlüsseln. Wenn Sie bestimmte Compliance- oder behördlichen Anforderungen in Bezug auf die Schlüssel zum Schutz Ihrer Daten haben, können Sie mit Ihren Vertex AI Workbench-Instanzen vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) verwenden. Weitere Informationen finden Sie unter Vom Kunden verwaltete Verschlüsselungsschlüssel.
Automatisiertes Herunterfahren bei inaktiven Instanzen
Zur Kostensenkung werden Vertex AI Workbench-Instanzen standardmäßig heruntergefahren, nachdem sie für einen bestimmten Zeitraum inaktiv waren. Sie können den Zeitraum ändern oder diese Funktion deaktivieren. Weitere Informationen finden Sie unter Inaktives Herunterfahren.
Conda-Umgebungen hinzufügen
Vertex AI Workbench-Instanzen verwenden Kernels, die auf Conda-Umgebungen basieren. Sie können Ihrer Vertex AI Workbench-Instanz eine Conda-Umgebung hinzufügen. Die Umgebung wird dann in der JupyterLab-Benutzeroberfläche Ihrer Instanz als Kernel angezeigt.
Wenn Sie Conda-Umgebungen hinzufügen, können Sie Kernel verwenden, die in der Standard-Vertex AI Workbench-Instanz nicht verfügbar sind. Sie können beispielsweise Conda-Umgebungen für R und Apache Beam hinzufügen. Oder Sie können Conda-Umgebungen für bestimmte ältere Versionen der verfügbaren Frameworks wie TensorFlow, PyTorch oder Python hinzufügen.
Weitere Informationen finden Sie unter Conda-Umgebung hinzufügen.
Benutzerdefinierte Container
Sie haben die Möglichkeit, eine Vertex AI Workbench-Instanz auf Basis eines benutzerdefinierten Containers zu erstellen. Beginnen Sie mit einem von Google bereitgestellten Basis-Container-Image und passen Sie es an Ihre Anforderungen an. Erstellen Sie dann eine Instanz auf Grundlage Ihres benutzerdefinierten Containers.
Weitere Informationen finden Sie unter Instanz mit benutzerdefiniertem Container erstellen.
Dataproc-Integration
Sie können Daten schnell verarbeiten, indem Sie ein Notebook in einem Dataproc-Cluster ausführen. Wenn der Cluster eingerichtet ist, können Sie eine Notebookdatei darauf ausführen, ohne die JupyterLab-Benutzeroberfläche zu verlassen. Weitere Informationen finden Sie unter Dataproc-kompatible Instanz erstellen.
Instanzen mit Anmeldedaten von Drittanbietern erstellen
Sie können Vertex AI Workbench-Instanzen mit Anmeldedaten von Drittanbietern erstellen und verwalten, die von der Workforce Identity-Föderation bereitgestellt werden. Die Workforce Identity-Föderation verwendet Ihren externen Identitätsanbieter (Identity Provider, IdP), um einer Gruppe von Nutzern über einen Proxy Zugriff auf Vertex AI Workbench-Instanzen zu gewähren.
Der Zugriff auf eine Vertex AI Workbench-Instanz wird durch Zuweisung eines Workforce-Pool-Hauptkontos zu dem Dienstkonto der Vertex AI Workbench-Instanz gewährt.
Weitere Informationen finden Sie unter Instanz mit Anmeldedaten eines Drittanbieters erstellen.
Tags für Vertex AI Workbench-Instanzen
Die zugrunde liegende VM einer Vertex AI Workbench-Instanz ist eine Compute Engine-VM. Sie können Ihrer Vertex AI Workbench-Instanz über ihre Compute Engine-VM Ressourcen-Tags hinzufügen und diese verwalten.
Wenn Sie eine Vertex AI Workbench-Instanz erstellen, fügt Vertex AI Workbench das Compute Engine-Ressourcen-Tag vertex-workbench-instances:prod=READ_ONLY
hinzu. Dieses Ressourcen-Tag wird nur für interne Zwecke verwendet.
Weitere Informationen zum Verwalten von Tags für Compute Engine-Instanzen finden Sie unter Tags für Ressourcen verwalten.
Beschränkungen
Beachten Sie beim Planen Ihres Projekts die folgenden Einschränkungen von Vertex AI Workbench-Instanzen:
JupyterLab-Erweiterungen von Drittanbietern werden nicht unterstützt.
Wenn Sie Access Context Manager und BeyondCorp Enterprise zum Schutz von Vertex AI Workbench-Instanzen mit kontextsensitiver Zugriffssteuerung verwenden, wird der Zugriff bei jeder Authentifizierung des Nutzers bei der Instanz ausgewertet. Beispielsweise wird der Zugriff ausgewertet, wenn der Nutzer zum ersten Mal auf JupyterLab zugreift und bei jedem Zugriff, nachdem das Cookie seines Webbrowsers abgelaufen ist.
Die Verwendung eines benutzerdefinierten Containers, der nicht vom von Google bereitgestellten Basiscontainer (
gcr.io/deeplearning-platform-release/workbench-container:latest
) abgeleitet ist, erhöht das Risiko von Kompatibilitätsproblemen mit unseren Diensten und wird nicht unterstützt. Ändern Sie stattdessen den Basiscontainer, um einen benutzerdefinierten Container zu erstellen, der Ihren Anforderungen entspricht, und erstellen Sie dann eine Instanz mit dem benutzerdefinierten Container.Obwohl die Verwendung von benutzerdefinierten VM-Images oder benutzerdefinierten Deep Learning-VMs mit Vertex AI Workbench-Instanzen möglich ist, bietet Vertex AI Workbench keine Unterstützung für unerwartete Verhaltensweisen oder Fehlfunktionen bei benutzerdefinierten Images.
Die Verwendung eines nutzerverwalteten Notebook-Images oder eines verwalteten Notebook-Images zum Erstellen einer Vertex AI Workbench-Instanz wird nicht unterstützt.
Sie können die zugrunde liegende VM einer Vertex AI Workbench-Instanz nicht mit der Google Cloud Console oder der Compute Engine API bearbeiten. Verwenden Sie zum Bearbeiten der zugrunde liegenden VM einer Vertex AI Workbench-Instanz die Methode
projects.locations.instances.patch
in der Notebooks API oder den Befehlgcloud workbench instances update
im Google Cloud SDK.In Instanzen, die VPC Service Controls verwenden, wird die Verwendung des executor nicht unterstützt.
Das Ändern von Netzwerktags von Vertex AI Workbench-Instanzen wird nicht unterstützt.
Wenn Sie Beschleuniger mit Vertex AI Workbench-Instanzen verwenden möchten, muss der gewünschte Beschleunigertyp in der Zone Ihrer Instanz verfügbar sein. Informationen zur Beschleunigerverfügbarkeit nach Zone finden Sie unter Verfügbarkeit von GPU-Regionen und -Zonen.