Classe CodeChatModel (1.50.0)

CodeChatModel(model_id: str, endpoint_name: typing.Optional[str] = None)

CodeChatModel rappresenta un modello in grado di completare il codice.

.. griglia:: Esempi

code_chat_model = CodeChatModel.from_preaddestrati("codechat-bison@001")

code_chat = code_chat_model.start_chat( context="Sto scrivendo un'applicazione aziendale su larga scala.", max_output_tokens=128, temperatura=0,2, )

code_chat.send_message("Aiutaci a scrivere una funzione per calcolare il minimo di due numeri")

Metodi

CodeChatModel

CodeChatModel(model_id: str, endpoint_name: typing.Optional[str] = None)

Crea un LanguageModel.

Questo costruttore non deve essere chiamato direttamente. Usa invece il criterio LanguageModel.from_pretrained(model_name=...).

Parametri
Nome Description
model_id str

Identificatore di un LLM Vertex. Esempio: "text-bison@001"

endpoint_name typing.Optional[str]

Nome della risorsa Vertex Endpoint per il modello

from_pretrained

from_pretrained(model_name: str) -> vertexai._model_garden._model_garden_models.T

Carica un oggetto _ModelGardenModel.

Parametro
Nome Description
model_name str

Nome del modello.

Eccezioni
Tipo Description
ValueError Se model_name è sconosciuto.
ValueError Se il modello non supporta questa classe.

get_tuned_model

get_tuned_model(
    tuned_model_name: str,
) -> vertexai.language_models._language_models._LanguageModel

Carica il modello linguistico ottimizzato specificato.

list_tuned_model_names

list_tuned_model_names() -> typing.Sequence[str]

Elenca i nomi dei modelli ottimizzati.

start_chat

start_chat(
    *,
    context: typing.Optional[str] = None,
    max_output_tokens: typing.Optional[int] = None,
    temperature: typing.Optional[float] = None,
    message_history: typing.Optional[
        typing.List[vertexai.language_models.ChatMessage]
    ] = None,
    stop_sequences: typing.Optional[typing.List[str]] = None
) -> vertexai.language_models.CodeChatSession

Avvia una sessione di chat con il modello di chat di codice.

tune_model

tune_model(
    training_data: typing.Union[str, pandas.core.frame.DataFrame],
    *,
    train_steps: typing.Optional[int] = None,
    learning_rate_multiplier: typing.Optional[float] = None,
    tuning_job_location: typing.Optional[str] = None,
    tuned_model_location: typing.Optional[str] = None,
    model_display_name: typing.Optional[str] = None,
    default_context: typing.Optional[str] = None,
    accelerator_type: typing.Optional[typing.Literal["TPU", "GPU"]] = None,
    tuning_evaluation_spec: typing.Optional[
        vertexai.language_models.TuningEvaluationSpec
    ] = None
) -> vertexai.language_models._language_models._LanguageModelTuningJob

Ottimizza un modello in base ai dati di addestramento.

Questo metodo avvia e restituisce un job di ottimizzazione del modello asincrono. Utilizzo:

tuning_job = model.tune_model(...)
... do some other work
tuned_model = tuning_job.get_tuned_model()  # Blocks until tuning is complete
Parametro
Nome Description
training_data typing.Union[str, pandas.core.frame.DataFrame]

Un DataFrame Pandas o un URI che rimanda ai dati in formato righe JSON. Lo schema del set di dati è specifico del modello. Vedi https://cloud.google.com/vertex-ai/docs/generative-ai/models/tune-models#dataset_format

Eccezioni
Tipo Description
ValueError Se il valore "tune_job_location" non è supportato
ValueError Se il valore "tuned_model_location" non è supportato
RuntimeError Se il modello non supporta l'ottimizzazione
AttributeError Se un attributo in "tune_Evaluation_spec" non è supportato