In diesem Codebeispiel wird gezeigt, wie Sie mit dem multimodalen Modell Einbettungen für Text- und Bildeingaben generieren.
Weitere Informationen
Eine ausführliche Dokumentation, die dieses Codebeispiel enthält, finden Sie hier:
- Multimodale Einbettungen abrufen
- Methode: projects.locations.endpoints.predict
- Methode: projects.locations.endpoints.predict
- Methode: projects.locations.endpoints.predict
- Methode: projects.locations.endpoints.predict
- Methode: projects.locations.publishers.models.predict
- Methode: projects.locations.publishers.models.predict
- Methode: projects.locations.publishers.models.predict
- Methode: projects.locations.publishers.models.predict
- Multimodal Embeddings API
Codebeispiel
Go
Bevor Sie dieses Beispiel anwenden, folgen Sie den Go-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Go API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Nächste Schritte
Informationen zum Suchen und Filtern von Codebeispielen für andere Google Cloud -Produkte finden Sie im Google Cloud Beispielbrowser.