TextEmbeddingModel(model_id: str, endpoint_name: typing.Optional[str] = None)
Crea un LanguageModel.
Questo costruttore non deve essere chiamato direttamente.
Usa invece il criterio LanguageModel.from_pretrained(model_name=...)
.
Parametri |
|
---|---|
Nome | Description |
model_id |
str
Identificatore di un LLM Vertex. Esempio: "text-bison@001" |
endpoint_name |
typing.Optional[str]
Nome della risorsa Vertex Endpoint per il modello |
Metodi
deploy_tuned_model
deploy_tuned_model(
tuned_model_name: str,
machine_type: typing.Optional[str] = None,
accelerator: typing.Optional[str] = None,
accelerator_count: typing.Optional[int] = None,
) -> vertexai.language_models._language_models._LanguageModel
Carica il modello linguistico ottimizzato specificato.
Parametri | |
---|---|
Nome | Description |
machine_type |
typing.Optional[str]
Tipo di macchina. Ad esempio, "a2-highgpu-1g". Vedi anche: https://cloud.google.com/vertex-ai/docs/training/configure-compute. |
accelerator |
typing.Optional[str]
Una specie di acceleratore. Ad esempio, "NVIDIA_TESLA_A100". Vedi anche: https://cloud.google.com/vertex-ai/docs/training/configure-compute. |
accelerator_count |
typing.Optional[int]
Conteggio degli acceleratori. |
from_pretrained
from_pretrained(model_name: str) -> vertexai._model_garden._model_garden_models.T
Carica un oggetto _ModelGardenModel.
Parametro | |
---|---|
Nome | Description |
model_name |
str
Nome del modello. |
Eccezioni | |
---|---|
Tipo | Description |
ValueError |
Se model_name è sconosciuto. |
ValueError |
Se il modello non supporta questa classe. |
get_embeddings
get_embeddings(
texts: typing.List[typing.Union[str, vertexai.language_models.TextEmbeddingInput]],
*,
auto_truncate: bool = True,
output_dimensionality: typing.Optional[int] = None
) -> typing.List[vertexai.language_models.TextEmbedding]
Calcola gli incorporamenti per i testi specificati.
Parametro | |
---|---|
Nome | Description |
texts |
typing.List[typing.Union[str, vertexai.language_models.TextEmbeddingInput]]
Un elenco di testi o |
get_embeddings_async
get_embeddings_async(
texts: typing.List[typing.Union[str, vertexai.language_models.TextEmbeddingInput]],
*,
auto_truncate: bool = True,
output_dimensionality: typing.Optional[int] = None
) -> typing.List[vertexai.language_models.TextEmbedding]
Calcola in modo asincrono gli incorporamenti per i testi specificati.
Parametro | |
---|---|
Nome | Description |
texts |
typing.List[typing.Union[str, vertexai.language_models.TextEmbeddingInput]]
Un elenco di testi o |
get_tuned_model
get_tuned_model(*args, **kwargs)
Carica il modello linguistico ottimizzato specificato.
list_tuned_model_names
list_tuned_model_names() -> typing.Sequence[str]
Elenca i nomi dei modelli ottimizzati.
tune_model
tune_model(
*,
training_data: typing.Optional[str] = None,
corpus_data: typing.Optional[str] = None,
queries_data: typing.Optional[str] = None,
test_data: typing.Optional[str] = None,
validation_data: typing.Optional[str] = None,
batch_size: typing.Optional[int] = None,
train_steps: typing.Optional[int] = None,
tuned_model_location: typing.Optional[str] = None,
model_display_name: typing.Optional[str] = None,
task_type: typing.Optional[str] = None,
machine_type: typing.Optional[str] = None,
accelerator: typing.Optional[str] = None,
accelerator_count: typing.Optional[int] = None
) -> vertexai.language_models._language_models._LanguageModelTuningJob
Ottimizza un modello in base ai dati di addestramento.
Questo metodo avvia e restituisce un job di ottimizzazione del modello asincrono. Utilizzo:
tuning_job = model.tune_model(...)
... do some other work
tuned_model = tuning_job.get_tuned_model() # Blocks until tuning is complete
Eccezioni | |
---|---|
Tipo | Description |
ValueError |
Se il valore "tuned_model_location" non è supportato |
RuntimeError |
Se il modello non supporta l'ottimizzazione |