Anteprima pacchetto (1.50.0)

Documentazione dell'API per il pacchetto preview.

Pacchetti

valutazione

Documentazione dell'API per il pacchetto evaluation.

reasoning_engines

Documentazione dell'API per il pacchetto reasoning_engines.

Corsi

VertexModel

mixin che può essere utilizzata per aggiungere l'esecuzione remota di Vertex AI a un modello personalizzato.

Moduli

generative_models

Classi per lavorare con i modelli Gemini.

language_models

Corsi per lavorare con i modelli linguistici.

vision_models

Corsi per lavorare con i modelli di visione artificiale.

Funzioni di Packages

end_run

end_run(
    state: google.cloud.aiplatform_v1.types.execution.Execution.State = State.COMPLETE,
)

Termina l'esecuzione dell'esperimento corrente.

aiplatform.start_run('my-run')
...
aiplatform.end_run()

from_pretrained

from_pretrained(
    *,
    model_name: typing.Optional[str] = None,
    custom_job_name: typing.Optional[str] = None,
    foundation_model_name: typing.Optional[str] = None
) -> typing.Union[sklearn.base.BaseEstimator, tf.Module, torch.nn.Module]

Estrae un modello da Model Registry o da un ID CustomJob per il riaddestramento.

Il modello restituito viene sottoposto a wrapping con un wrapper Vertex per l'esecuzione di job remoti su Vertex, a meno che un modello senza wrapping non sia stato registrato in Model Registry.

get_experiment_df

get_experiment_df(
    experiment: typing.Optional[str] = None, *, include_time_series: bool = True
) -> pd.DataFrame

Restituisce un DataFrame Pandas dei parametri e delle metriche associati a un esperimento.

Esempio:

aiplatform.init(experiment='exp-1')
aiplatform.start_run(run='run-1')
aiplatform.log_params({'learning_rate': 0.1})
aiplatform.log_metrics({'accuracy': 0.9})

aiplatform.start_run(run='run-2')
aiplatform.log_params({'learning_rate': 0.2})
aiplatform.log_metrics({'accuracy': 0.95})

aiplatform.get_experiment_df()

Darà come risultato il seguente DataFrame:

experiment_name | run_name      | param.learning_rate | metric.accuracy
exp-1           | run-1         | 0.1                 | 0.9
exp-1           | run-2         | 0.2                 | 0.95
Parametri
Nome Description
experiment

Il nome dell'esperimento per filtrare i risultati. Se non viene configurato, restituisce i risultati dell'esperimento attivo corrente.

include_time_series

Facoltativo. Se includere o meno le metriche delle serie temporali in df. Il valore predefinito è True. L'impostazione su False migliorerà notevolmente il tempo di esecuzione e ridurrà la quota di chiamate che contribuiscono alla sua esecuzione. Opzione consigliata quando non sono necessarie le metriche delle serie temporali o quando il numero di esecuzioni nell'esperimento è elevato. Per le metriche delle serie temporali, valuta la possibilità di eseguire una query su un'esecuzione specifica utilizzando get_time_series_data_frame.

init

init(
    *,
    remote: typing.Optional[bool] = None,
    autolog: typing.Optional[bool] = None,
    cluster: typing.Optional[
        vertexai.preview._workflow.shared.configs.PersistentResourceConfig
    ] = None
)

Aggiorna l'anteprima dei parametri globali per l'esecuzione remota di Vertex.

Parametri
Nome Description
remote

Facoltativo. Un flag globale per indicare se un metodo verrà eseguito in remoto o meno. Il valore predefinito è Flase. Il flag remoto a livello di metodo ha una priorità maggiore rispetto a questo flag globale.

autolog

Facoltativo. Indica se attivare o meno la funzionalità di registrazione automatica per l'esecuzione remota. Per saperne di più sulla funzionalità di registrazione automatica, visita la pagina https://cloud.google.com/vertex-ai/docs/experiments/autolog-data.

cluster

Facoltativo. Se il test viene superato, controlla se il cluster esiste. In caso contrario, creane uno predefinito (nodo singolo, "n1-standard-4", nessuna GPU) con il nome specificato. Quindi utilizza il cluster per eseguire CustomJob. Il valore predefinito è Nessuno. Esempio di utilizzo: da vertexai.preview.shared.configs import PersistentResourceConfig cluster = PersistentResourceConfig( name="my-cluster-1", resource_pools=[ ResourcePool(replica_count=1,), ResourcePool( machine_type="n1-standard-8", replica_count=2, accelerator_type="NVIDIA_TESLA_P100", accelerator_count]=1)

log_classification_metrics

log_classification_metrics(
    *,
    labels: typing.Optional[typing.List[str]] = None,
    matrix: typing.Optional[typing.List[typing.List[int]]] = None,
    fpr: typing.Optional[typing.List[float]] = None,
    tpr: typing.Optional[typing.List[float]] = None,
    threshold: typing.Optional[typing.List[float]] = None,
    display_name: typing.Optional[str] = None
) -> (
    google.cloud.aiplatform.metadata.schema.google.artifact_schema.ClassificationMetrics
)

Crea un artefatto per le metriche di classificazione e registralo in ExampleRun. Attualmente supporta la matrice di confusione e la curva ROC.

my_run = aiplatform.ExperimentRun('my-run', experiment='my-experiment')
classification_metrics = my_run.log_classification_metrics(
    display_name='my-classification-metrics',
    labels=['cat', 'dog'],
    matrix=[[9, 1], [1, 9]],
    fpr=[0.1, 0.5, 0.9],
    tpr=[0.1, 0.7, 0.9],
    threshold=[0.9, 0.5, 0.1],
)
Parametri
Nome Description
labels

Facoltativo. Elenco di nomi di etichette per la matrice di confusione. Deve essere impostato se è impostato "matrix".

matrix

Facoltativo. Valori per la matrice di confusione. Deve essere impostato se sono impostate "etichette".

fpr

Facoltativo. Elenco dei tassi di falsi positivi per la curva ROC. Deve essere impostato se si imposta "tpr" o "thresholds".

tpr

Facoltativo. Elenco di tassi reali positivi per la curva ROC. Deve essere impostato se si imposta "fpr" o "thresholds".

threshold

Facoltativo. Elenco delle soglie per la curva ROC. Deve essere impostato se si imposta "fpr" o "tpr".

display_name

Facoltativo. Il nome definito dall'utente per l'artefatto della metrica di classificazione.

log_metrics

log_metrics(metrics: typing.Dict[str, typing.Union[float, int, str]])

Registra una o più metriche con coppie chiave-valore specificate.

Le metriche con la stessa chiave verranno sovrascritte.

aiplatform.start_run('my-run', experiment='my-experiment')
aiplatform.log_metrics({'accuracy': 0.9, 'recall': 0.8})
Parametro
Nome Description
metrics

Obbligatorio. Coppie chiave/valore delle metriche.

log_params

log_params(params: typing.Dict[str, typing.Union[float, int, str]])

Registra uno o più parametri con coppie chiave-valore specificate.

I parametri con la stessa chiave verranno sovrascritti.

aiplatform.start_run('my-run')
aiplatform.log_params({'learning_rate': 0.1, 'dropout_rate': 0.2})
Parametro
Nome Description
params

Obbligatorio. Coppie chiave/valore dei parametri.

log_time_series_metrics

log_time_series_metrics(
    metrics: typing.Dict[str, float],
    step: typing.Optional[int] = None,
    wall_time: typing.Optional[google.protobuf.timestamp_pb2.Timestamp] = None,
)

Registra le metriche delle serie temporali in questa esecuzione dell'esperimento.

Richiede che l'esecuzione dell'esperimento o dell'esperimento abbia una risorsa Vertex Tensorboard di supporto.

my_tensorboard = aiplatform.Tensorboard(...)
aiplatform.init(experiment='my-experiment', experiment_tensorboard=my_tensorboard)
aiplatform.start_run('my-run')

# increments steps as logged
for i in range(10):
    aiplatform.log_time_series_metrics({'loss': loss})

# explicitly log steps
for i in range(10):
    aiplatform.log_time_series_metrics({'loss': loss}, step=i)
Parametri
Nome Description
metrics

Obbligatorio. Dizionario in cui le chiavi sono nomi delle metriche e i valori sono valori delle metriche.

step

Facoltativo. Indice dei passaggi di questo punto dati all'interno dell'esecuzione. Se non viene specificato, verrà utilizzato il passaggio più recente tra tutte le metriche delle serie temporali già registrate.

wall_time

Facoltativo. Timestamp del timestamp effettivo quando questo punto dati viene generato dall'utente finale. Se non specificato, verrà generato in base al valore di time.time().

register

register(
    model: typing.Union[sklearn.base.BaseEstimator, tf.Module, torch.nn.Module],
    use_gpu: bool = False,
) -> google.cloud.aiplatform.models.Model

Registra un modello e restituisce un modello che rappresenta la risorsa Model registrata.

Parametri
Nome Description
model

Obbligatorio. Un modello OSS. Framework supportati: sklearn, tensorflow, pytorch.

use_gpu

Facoltativo. Se utilizzare GPU per la pubblicazione del modello. Il valore predefinito è False.

telecomando

remote(cls_or_method: typing.Any) -> typing.Any

Prende una classe o un metodo e aggiunge il supporto per l'esecuzione remota di Vertex.

ad es.:


LogisticRegression = vertexai.preview.remote(LogisticRegression)
model = LogisticRegression()
model.fit.vertex.remote_config.staging_bucket = REMOTE_JOB_BUCKET
model.fit.vertex.remote=True
model.fit(X_train, y_train)
Parametro
Nome Description
cls_or_method

Obbligatorio. Una classe o un metodo a cui verrà aggiunto il supporto per l'esecuzione remota di Vertex.

start_run

start_run(
    run: str,
    *,
    tensorboard: typing.Optional[
        typing.Union[
            google.cloud.aiplatform.tensorboard.tensorboard_resource.Tensorboard, str
        ]
    ] = None,
    resume=False
) -> google.cloud.aiplatform.metadata.experiment_run_resource.ExperimentRun

Avvia una corsa nella sessione corrente.

aiplatform.init(experiment='my-experiment')
aiplatform.start_run('my-run')
aiplatform.log_params({'learning_rate':0.1})

Utilizza come gestore contesto. L'esecuzione verrà terminata all'uscita dal contesto:

aiplatform.init(experiment='my-experiment')
with aiplatform.start_run('my-run') as my_run:
    my_run.log_params({'learning_rate':0.1})

Riprendere un'esecuzione avviata in precedenza:

aiplatform.init(experiment='my-experiment')
with aiplatform.start_run('my-run', resume=True) as my_run:
    my_run.log_params({'learning_rate':0.1})
Parametri
Nome Description
run

Obbligatorio. Nome dell'esecuzione a cui assegnare la sessione corrente.

resume

Se riprendere questa esecuzione. Se il valore è False, verrà creata una nuova esecuzione.