Auf dieser Seite wird beschrieben, wie Sie überwachtes Fine-Tuning für offene Modelle wie Llama 3.1 durchführen.
Unterstützte Abstimmungsmethoden
Low-Rank Adaptation (LoRA): LoRA ist eine parametereffiziente Abstimmungsmethode, bei der nur eine Teilmenge der Parameter angepasst wird. Es ist kostengünstiger und erfordert weniger Trainingsdaten als die vollständige Feinabstimmung. Andererseits bietet die vollständige Feinabstimmung durch die Anpassung aller Parameter ein höheres Qualitätspotenzial.
Unterstützte Modelle
meta/llama3_1@llama-3.1-8b
meta/llama3_1@llama-3.1-8b-instruct
meta/llama3-2@llama-3.2-1b-instruct
: unterstützt nur die vollständige Optimierungmeta/llama3-2@llama-3.2-3b-instruct
: unterstützt nur die vollständige Optimierungmeta/llama3-3@llama-3.3-70b-instruct
Hinweise
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI and Cloud Storage APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI and Cloud Storage APIs.
- Vertex AI SDK für Python installieren und initialisieren
- Importieren Sie die folgenden Bibliotheken:
import os import time import uuid import vertexai vertexai.init(project=PROJECT_ID, location=REGION) from google.cloud import aiplatform from vertexai.preview.tuning import sft, SourceModel
- Ein unterstütztes Basismodell, z. B. Llama 3.1
Ein Modell mit derselben Architektur wie eines der unterstützten Basismodelle. Dies kann entweder ein benutzerdefinierter Modell-Checkpoint aus einem Repository wie Hugging Face oder ein zuvor abgestimmtes Modell aus einem Vertex AI-Abstimmungsjob sein. So können Sie ein Modell weiter abstimmen, das bereits abgestimmt wurde.
Sie haben folgende Möglichkeiten, die Feinabstimmung zu starten:
Rufen Sie die Modellkarte auf, klicken Sie auf Feinabstimmung und wählen Sie Verwaltete Optimierung aus.
oder
Rufen Sie die Seite Abstimmung auf und klicken Sie auf Abgestimmtes Modell erstellen.
Füllen Sie die Parameter aus und klicken Sie auf Start tuning (Abstimmung starten).
Rufen Sie die Seite Model Garden auf und klicken Sie auf Modell mit benutzerdefinierten Gewichten bereitstellen.
Füllen Sie die Parameter aus und klicken Sie auf Bereitstellen.
Dataset für die Abstimmung vorbereiten
Zum Abstimmen ist ein Trainings-Dataset erforderlich. Es wird empfohlen, ein optionales Validierungs-Dataset vorzubereiten, wenn Sie die Leistung Ihres optimierten Modells bewerten möchten.
Ihr Dataset muss in einem der folgenden unterstützten JSON Lines-Formate (JSONL) vorliegen, wobei jede Zeile ein einzelnes Abstimmungsbeispiel enthält.
Rundenbasiertes Chatformat
{"messages": [
{"content": "You are a chatbot that helps with scientific literature and generates state-of-the-art abstracts from articles.",
"role": "system"},
{"content": "Summarize the paper in one paragraph.",
"role": "user"},
{"content": " Here is a one paragraph summary of the paper:\n\nThe paper describes PaLM, ...",
"role": "assistant"}
]}
Laden Sie Ihre JSONL-Dateien in Cloud Storage hoch.
Abstimmungsjob erstellen
Sie können die folgenden Sender empfangen:
Cloud Console
Dadurch wird ein Abstimmungsjob gestartet, den Sie auf der Seite „Abstimmung“ auf dem Tab Verwaltete Abstimmung sehen können.
Nach Abschluss des Tuning-Jobs können Sie sich die Informationen zum abgestimmten Modell auf dem Tab Details ansehen.
Vertex AI SDK für Python
Ersetzen Sie die Parameterwerte durch Ihre eigenen und führen Sie dann den folgenden Code aus, um einen Tuning-Job zu erstellen:
sft_tuning_job = sft.preview_train(
source_model=SourceModel(
base_model="meta/llama3_1@llama-3.1-8b",
# Optional, folder that either a custom model checkpoint or previously tuned model
custom_base_model="gs://{STORAGE-URI}",
),
tuning_mode="FULL", # FULL or PEFT_ADAPTER
epochs=3,
train_dataset="gs://{STORAGE-URI}", # JSONL file
validation_dataset="gs://{STORAGE-URI}", # JSONL file
output_uri="gs://{STORAGE-URI}",
)
Wenn der Job abgeschlossen ist, werden die Modellartefakte für das optimierte Modell im Ordner <output_uri>/postprocess/node-0/checkpoints/final
gespeichert.
Abgestimmtes Modell bereitstellen
Sie können das abgestimmte Modell auf einem Vertex AI-Endpunkt bereitstellen. Sie können das optimierte Modell auch aus Cloud Storage exportieren und an anderer Stelle bereitstellen.
So stellen Sie das abgestimmte Modell auf einem Vertex AI-Endpunkt bereit:
Cloud Console
Vertex AI SDK für Python
So stellen Sie ein G2 machine
mit einem vordefinierten Container bereit:
from vertexai.preview import model_garden
MODEL_ARTIFACTS_STORAGE_URI = "gs://{STORAGE-URI}/postprocess/node-0/checkpoints/final"
model = model_garden.CustomModel(
gcs_uri=MODEL_ARTIFACTS_STORAGE_URI,
)
# deploy the model to an endpoint using GPUs. Cost will incur for the deployment
endpoint = model.deploy(
machine_type="g2-standard-12",
accelerator_type="NVIDIA_L4",
accelerator_count=1,
)
Inferenz erhalten
Nach erfolgreicher Bereitstellung können Sie Anfragen mit Text-Prompts an den Endpunkt senden. Die Ausführung der ersten Prompts dauert länger.
# Loads the deployed endpoint
endpoint = aiplatform.Endpoint("projects/{PROJECT_ID}/locations/{REGION}/endpoints/{endpoint_name}")
prompt = "Summarize the following article. Article: Preparing a perfect risotto requires patience and attention to detail. Begin by heating butter in a large, heavy-bottomed pot over medium heat. Add finely chopped onions and minced garlic to the pot, and cook until they're soft and translucent, about 5 minutes. Next, add Arborio rice to the pot and cook, stirring constantly, until the grains are coated with the butter and begin to toast slightly. Pour in a splash of white wine and cook until it's absorbed. From there, gradually add hot chicken or vegetable broth to the rice, stirring frequently, until the risotto is creamy and the rice is tender with a slight bite.. Summary:"
# Define input to the prediction call
instances = [
{
"prompt": "What is a car?",
"max_tokens": 200,
"temperature": 1.0,
"top_p": 1.0,
"top_k": 1,
"raw_response": True,
},
]
# Request the prediction
response = endpoint.predict(
instances=instances
)
for prediction in response.predictions:
print(prediction)
Weitere Informationen zum Abrufen von Inferenzdaten aus einem bereitgestellten Modell finden Sie unter Onlineinferenz abrufen.
Beachten Sie, dass für verwaltete offene Modelle die Methode chat.completions
anstelle der Methode predict
verwendet wird, die für bereitgestellte Modelle verwendet wird. Weitere Informationen zum Abrufen von Inferenzvorhersagen aus verwalteten Modellen finden Sie unter Llama-Modell aufrufen.
Limits und Kontingente
Das Kontingent wird für die Anzahl der gleichzeitig ausgeführten Abstimmungsjobs erzwungen. Jedes Projekt kommt mit einem Standardkontingent zum Ausführen mindestens eines Abstimmungsjobs. Dies ist ein globales Kontingent, das für alle verfügbaren Regionen und unterstützten Modelle gilt. Wenn Sie weitere Jobs gleichzeitig ausführen möchten, müssen Sie für Global
concurrent managed OSS model fine-tuning jobs per project
zusätzliche Kontingente anfordern.
Preise
Die Abrechnung für die Optimierung erfolgt gemäß den Preisen für die Modelloptimierung.
Die Nutzung zugehöriger Dienste wie Cloud Storage und Vertex AI Prediction wird Ihnen ebenfalls in Rechnung gestellt.
Informieren Sie sich über die Preise von Vertex AI und die Preise von Cloud Storage. Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung generieren.