Documentazione dell'API per il pacchetto preview
.
Pacchetti
valutazione
Documentazione dell'API per il pacchetto evaluation
.
reasoning_engines
Documentazione dell'API per il pacchetto reasoning_engines
.
Corsi
VertexModel
mixin che può essere utilizzata per aggiungere l'esecuzione remota di Vertex AI a un modello personalizzato.
Moduli
generative_models
Classi per lavorare con i modelli Gemini.
language_models
Corsi per lavorare con i modelli linguistici.
vision_models
Corsi per lavorare con i modelli di visione artificiale.
Funzioni di Packages
end_run
end_run(
state: google.cloud.aiplatform_v1.types.execution.Execution.State = State.COMPLETE,
)
Termina l'esecuzione dell'esperimento corrente.
aiplatform.start_run('my-run')
...
aiplatform.end_run()
from_pretrained
from_pretrained(
*,
model_name: typing.Optional[str] = None,
custom_job_name: typing.Optional[str] = None,
foundation_model_name: typing.Optional[str] = None
) -> typing.Union[sklearn.base.BaseEstimator, tf.Module, torch.nn.Module]
Estrae un modello da Model Registry o da un ID CustomJob per il riaddestramento.
Il modello restituito viene sottoposto a wrapping con un wrapper Vertex per l'esecuzione di job remoti su Vertex, a meno che un modello senza wrapping non sia stato registrato in Model Registry.
get_experiment_df
get_experiment_df(
experiment: typing.Optional[str] = None, *, include_time_series: bool = True
) -> pd.DataFrame
Restituisce un DataFrame Pandas dei parametri e delle metriche associati a un esperimento.
Esempio:
aiplatform.init(experiment='exp-1')
aiplatform.start_run(run='run-1')
aiplatform.log_params({'learning_rate': 0.1})
aiplatform.log_metrics({'accuracy': 0.9})
aiplatform.start_run(run='run-2')
aiplatform.log_params({'learning_rate': 0.2})
aiplatform.log_metrics({'accuracy': 0.95})
aiplatform.get_experiment_df()
Darà come risultato il seguente DataFrame:
experiment_name | run_name | param.learning_rate | metric.accuracy
exp-1 | run-1 | 0.1 | 0.9
exp-1 | run-2 | 0.2 | 0.95
Parametri | |
---|---|
Nome | Description |
experiment |
Il nome dell'esperimento per filtrare i risultati. Se non viene configurato, restituisce i risultati dell'esperimento attivo corrente. |
include_time_series |
Facoltativo. Se includere o meno le metriche delle serie temporali in df. Il valore predefinito è True. L'impostazione su False migliorerà notevolmente il tempo di esecuzione e ridurrà la quota di chiamate che contribuiscono alla sua esecuzione. Opzione consigliata quando non sono necessarie le metriche delle serie temporali o quando il numero di esecuzioni nell'esperimento è elevato. Per le metriche delle serie temporali, valuta la possibilità di eseguire una query su un'esecuzione specifica utilizzando get_time_series_data_frame. |
init
init(
*,
remote: typing.Optional[bool] = None,
autolog: typing.Optional[bool] = None,
cluster: typing.Optional[
vertexai.preview._workflow.shared.configs.PersistentResourceConfig
] = None
)
Aggiorna l'anteprima dei parametri globali per l'esecuzione remota di Vertex.
Parametri | |
---|---|
Nome | Description |
remote |
Facoltativo. Un flag globale per indicare se un metodo verrà eseguito in remoto o meno. Il valore predefinito è Flase. Il flag remoto a livello di metodo ha una priorità maggiore rispetto a questo flag globale. |
autolog |
Facoltativo. Indica se attivare o meno la funzionalità di registrazione automatica per l'esecuzione remota. Per saperne di più sulla funzionalità di registrazione automatica, visita la pagina https://cloud.google.com/vertex-ai/docs/experiments/autolog-data. |
cluster |
Facoltativo. Se il test viene superato, controlla se il cluster esiste. In caso contrario, creane uno predefinito (nodo singolo, "n1-standard-4", nessuna GPU) con il nome specificato. Quindi utilizza il cluster per eseguire CustomJob. Il valore predefinito è Nessuno. Esempio di utilizzo: da vertexai.preview.shared.configs import PersistentResourceConfig cluster = PersistentResourceConfig( name="my-cluster-1", resource_pools=[ ResourcePool(replica_count=1,), ResourcePool( machine_type="n1-standard-8", replica_count=2, accelerator_type="NVIDIA_TESLA_P100", accelerator_count]=1) |
log_classification_metrics
log_classification_metrics(
*,
labels: typing.Optional[typing.List[str]] = None,
matrix: typing.Optional[typing.List[typing.List[int]]] = None,
fpr: typing.Optional[typing.List[float]] = None,
tpr: typing.Optional[typing.List[float]] = None,
threshold: typing.Optional[typing.List[float]] = None,
display_name: typing.Optional[str] = None
) -> (
google.cloud.aiplatform.metadata.schema.google.artifact_schema.ClassificationMetrics
)
Crea un artefatto per le metriche di classificazione e registralo in ExampleRun. Attualmente supporta la matrice di confusione e la curva ROC.
my_run = aiplatform.ExperimentRun('my-run', experiment='my-experiment')
classification_metrics = my_run.log_classification_metrics(
display_name='my-classification-metrics',
labels=['cat', 'dog'],
matrix=[[9, 1], [1, 9]],
fpr=[0.1, 0.5, 0.9],
tpr=[0.1, 0.7, 0.9],
threshold=[0.9, 0.5, 0.1],
)
Parametri | |
---|---|
Nome | Description |
labels |
Facoltativo. Elenco di nomi di etichette per la matrice di confusione. Deve essere impostato se è impostato "matrix". |
matrix |
Facoltativo. Valori per la matrice di confusione. Deve essere impostato se sono impostate "etichette". |
fpr |
Facoltativo. Elenco dei tassi di falsi positivi per la curva ROC. Deve essere impostato se si imposta "tpr" o "thresholds". |
tpr |
Facoltativo. Elenco di tassi reali positivi per la curva ROC. Deve essere impostato se si imposta "fpr" o "thresholds". |
threshold |
Facoltativo. Elenco delle soglie per la curva ROC. Deve essere impostato se si imposta "fpr" o "tpr". |
display_name |
Facoltativo. Il nome definito dall'utente per l'artefatto della metrica di classificazione. |
log_metrics
log_metrics(metrics: typing.Dict[str, typing.Union[float, int, str]])
Registra una o più metriche con coppie chiave-valore specificate.
Le metriche con la stessa chiave verranno sovrascritte.
aiplatform.start_run('my-run', experiment='my-experiment')
aiplatform.log_metrics({'accuracy': 0.9, 'recall': 0.8})
Parametro | |
---|---|
Nome | Description |
metrics |
Obbligatorio. Coppie chiave/valore delle metriche. |
log_params
log_params(params: typing.Dict[str, typing.Union[float, int, str]])
Registra uno o più parametri con coppie chiave-valore specificate.
I parametri con la stessa chiave verranno sovrascritti.
aiplatform.start_run('my-run')
aiplatform.log_params({'learning_rate': 0.1, 'dropout_rate': 0.2})
Parametro | |
---|---|
Nome | Description |
params |
Obbligatorio. Coppie chiave/valore dei parametri. |
log_time_series_metrics
log_time_series_metrics(
metrics: typing.Dict[str, float],
step: typing.Optional[int] = None,
wall_time: typing.Optional[google.protobuf.timestamp_pb2.Timestamp] = None,
)
Registra le metriche delle serie temporali in questa esecuzione dell'esperimento.
Richiede che l'esecuzione dell'esperimento o dell'esperimento abbia una risorsa Vertex Tensorboard di supporto.
my_tensorboard = aiplatform.Tensorboard(...)
aiplatform.init(experiment='my-experiment', experiment_tensorboard=my_tensorboard)
aiplatform.start_run('my-run')
# increments steps as logged
for i in range(10):
aiplatform.log_time_series_metrics({'loss': loss})
# explicitly log steps
for i in range(10):
aiplatform.log_time_series_metrics({'loss': loss}, step=i)
Parametri | |
---|---|
Nome | Description |
metrics |
Obbligatorio. Dizionario in cui le chiavi sono nomi delle metriche e i valori sono valori delle metriche. |
step |
Facoltativo. Indice dei passaggi di questo punto dati all'interno dell'esecuzione. Se non viene specificato, verrà utilizzato il passaggio più recente tra tutte le metriche delle serie temporali già registrate. |
wall_time |
Facoltativo. Timestamp del timestamp effettivo quando questo punto dati viene generato dall'utente finale. Se non specificato, verrà generato in base al valore di time.time(). |
register
register(
model: typing.Union[sklearn.base.BaseEstimator, tf.Module, torch.nn.Module],
use_gpu: bool = False,
) -> google.cloud.aiplatform.models.Model
Registra un modello e restituisce un modello che rappresenta la risorsa Model registrata.
Parametri | |
---|---|
Nome | Description |
model |
Obbligatorio. Un modello OSS. Framework supportati: sklearn, tensorflow, pytorch. |
use_gpu |
Facoltativo. Se utilizzare GPU per la pubblicazione del modello. Il valore predefinito è False. |
telecomando
remote(cls_or_method: typing.Any) -> typing.Any
Prende una classe o un metodo e aggiunge il supporto per l'esecuzione remota di Vertex.
ad es.:
LogisticRegression = vertexai.preview.remote(LogisticRegression)
model = LogisticRegression()
model.fit.vertex.remote_config.staging_bucket = REMOTE_JOB_BUCKET
model.fit.vertex.remote=True
model.fit(X_train, y_train)
Parametro | |
---|---|
Nome | Description |
cls_or_method |
Obbligatorio. Una classe o un metodo a cui verrà aggiunto il supporto per l'esecuzione remota di Vertex. |
start_run
start_run(
run: str,
*,
tensorboard: typing.Optional[
typing.Union[
google.cloud.aiplatform.tensorboard.tensorboard_resource.Tensorboard, str
]
] = None,
resume=False
) -> google.cloud.aiplatform.metadata.experiment_run_resource.ExperimentRun
Avvia una corsa nella sessione corrente.
aiplatform.init(experiment='my-experiment')
aiplatform.start_run('my-run')
aiplatform.log_params({'learning_rate':0.1})
Utilizza come gestore contesto. L'esecuzione verrà terminata all'uscita dal contesto:
aiplatform.init(experiment='my-experiment')
with aiplatform.start_run('my-run') as my_run:
my_run.log_params({'learning_rate':0.1})
Riprendere un'esecuzione avviata in precedenza:
aiplatform.init(experiment='my-experiment')
with aiplatform.start_run('my-run', resume=True) as my_run:
my_run.log_params({'learning_rate':0.1})
Parametri | |
---|---|
Nome | Description |
run |
Obbligatorio. Nome dell'esecuzione a cui assegnare la sessione corrente. |
resume |
Se riprendere questa esecuzione. Se il valore è False, verrà creata una nuova esecuzione. |