Hugging Face-Textgenerierungsmodelle verwenden

HuggingFace bietet vortrainierte Modelle, Feinabstimmungsskripts und Entwicklungs-APIs, die das Erstellen und Erkennen von LLMs vereinfachen. Model Garden unterstützt beliebte, von der Texteinbettung- und der regulären Pytorch-Inferenz gestützte Modelle in Hugging Face sowie alle von der Textgenerierung-Inferenzen unterstützte Modelle in Hugging Face.

Optionen der Bereitstellung

Wenn Sie ein unterstütztes Hugging Face-Modell bereitstellen möchten, rufen Sie Model Garden auf und klicken auf Von Hugging Face bereitstellen.

In Vertex AI bereitstellen

Vertex AI bietet eine verwaltete Plattform zum Erstellen und Skalieren von ML-Projekten, ohne dass interne MLOps-Kenntnisse erforderlich sind. Sie können Vertex AI als nachgelagerte Anwendung verwenden, die Hugging Face-Modelle bereitstellt. Wir empfehlen die Verwendung von Vertex AI, wenn Sie End-to-End-MLOps-Funktionen, Mehrwert-ML-Features und eine serverlose Umgebung für eine optimierte Entwicklung wünschen.

Sehen Sie sich zum Einstieg die folgenden Beispiele an:

In GKE bereitstellen

Google Kubernetes Engine (GKE) ist die Google Cloud-Lösung für verwaltete Kubernetes, die Skalierbarkeit, Sicherheit, Robustheit und Kosteneffizienz bietet. Wir empfehlen diese Option, wenn Sie bereits Kubernetes-Investitionen haben, Ihre Organisation über interne MLOps-Kenntnisse verfügt oder wenn Sie eine detaillierte Kontrolle über komplexe KI/ML-Arbeitslasten mit besonderer Sicherheit, Datenpipeline und Ressourcen benötigen Managementanforderungen.

Sehen Sie sich zum Einstieg die folgenden Beispiele an: