Per recuperare i dati delle caratteristiche per l'addestramento del modello, utilizza recupero dati in batch. Per esportare i valori delle funzionalità per l'archiviazione o l'analisi ad hoc, le funzionalità di esportazione .
Recupera i valori delle caratteristiche per l'addestramento del modello
Per l'addestramento del modello, è necessario un set di dati di addestramento contenente esempi della tua attività di previsione. Questi esempi sono costituiti da istanze che includono le relative funzionalità e le etichette. L'istanza rappresenta l'elemento su cui si desidera la previsione. Ad esempio, un'istanza potrebbe essere una casa e vuoi determinarne il valore di mercato. Le sue funzionalità potrebbero includere la posizione, l'età e il il prezzo delle case vicine vendute di recente. Un'etichetta è una risposta per un'attività di previsione, ad esempio la casa è stata venduta per 100.000 $.
Poiché ogni etichetta è un'osservazione in un momento specifico, i valori delle caratteristiche che corrispondono al momento in cui l'osservazione sono stati realizzati, ad esempio i prezzi delle case nelle vicinanze quando una determinata abitazione era venduto. Poiché le etichette e i valori delle caratteristiche vengono raccolti nel tempo, questi valori varieranno. Vertex AI Feature Store (legacy) può eseguire una ricerca point-in-time in modo da recuperare i valori delle funzionalità in un determinato momento.
Esempio di ricerca point-in-time
L'esempio seguente prevede il recupero dei valori delle funzionalità per due
istanze di addestramento con etichette L1
e L2
. Le due etichette vengono osservate rispettivamente a T1
e
T2
. Immagina di bloccare lo stato dei valori delle caratteristiche a quei
i timestamp. Pertanto, per la ricerca in un determinato momento in T1
,
Vertex AI Feature Store (legacy) restituisce i valori delle funzionalità più recenti fino al momento T1
per Feature 1
, Feature 2
e Feature 3
e non perde valori oltre
T1
. Con il passare del tempo, i valori delle funzionalità cambiano e cambia anche l'etichetta. Pertanto, a T2
, Feature Store restituisce valori di caratteristiche diversi per quel
momento.
Input per il recupero dati in batch
Come parte di una richiesta di recupero dati in batch, sono necessarie le seguenti informazioni:
- Un elenco di caratteristiche esistenti per le quali ottenere i valori.
- Un elenco di istanze di lettura che contiene informazioni per ogni esempio di addestramento.
Elenca le osservazioni in un determinato momento. Può essere un file CSV
o una tabella BigQuery. L'elenco deve includere quanto segue
informazioni:
- Timestamp: i momenti in cui le etichette sono state osservate o misurate. I timestamp sono obbligatori affinché Vertex AI Feature Store (legacy) possa eseguire una ricerca in un determinato momento.
- ID entità: uno o più ID delle entità che corrispondono ai dell'etichetta.
- L'URI di destinazione e il formato in cui viene scritto l'output. Nell'output,
Vertex AI Feature Store (legacy) unisce essenzialmente la tabella dalla sessione
di istanze VM e i valori delle caratteristiche dall'archivio di caratteristiche. Specifica uno dei seguenti formati e posizioni per l'output:
- Tabella BigQuery in un set di dati regionale o multiregionale.
- File CSV in un bucket Cloud Storage regionale o multiregionale. Ma se i valori delle caratteristiche includono array, è necessario scegliere un altro formato.
- File Tfrecord in in un bucket Cloud Storage.
Requisiti per le regioni
Sia per le istanze di lettura che per la destinazione,
il set di dati o il bucket di origine deve trovarsi nella stessa regione o nella stessa regione
località multiregionale come archivio di caratteristiche. Ad esempio, un archivio di caratteristiche in
us-central1
può leggere o inviare dati solo a bucket Cloud Storage
o set di dati BigQuery che si trovano in us-central1
o nella località su più regioni degli Stati Uniti. Non puoi utilizzare i dati di, ad esempio, us-east1
. Inoltre,
la lettura o la pubblicazione dei dati utilizzando bucket a due regioni non è supportata.
Elenco di istanze di lettura
L'elenco delle istanze di lettura specifica le entità e i timestamp relativi all'evento i valori delle caratteristiche che vuoi recuperare. Il file CSV o BigQuery deve contenere le seguenti colonne in qualsiasi ordine. Ogni colonna richiede un'intestazione.
- Devi includere una colonna di timestamp, il cui nome dell'intestazione è
timestamp
e i valori della colonna sono timestamp nel formato RFC 3339. - Devi includere una o più colonne di tipo di entità, in cui l'intestazione è l'ID tipo di entità e i valori delle colonne sono gli ID entità.
- (Facoltativo) Puoi includere valori pass-through (colonne aggiuntive) che vengono passati così come sono all'output. Ciò è utile se disponi di dati che non si trovano in Vertex AI Feature Store (legacy) ma vuoi includerli nell'output.
Esempio (CSV)
Immagina un archivio di caratteristiche che contiene i tipi di entità users
e movies
insieme
con le loro caratteristiche. Ad esempio, le funzionalità di users
potrebbero includere age
e
gender
mentre le funzionalità di movies
potrebbero includere ratings
e genre
.
In questo esempio, vuoi raccogliere dati di addestramento sui film
preferenze. Recuperi i valori delle caratteristiche per le due entità utente alice
e
bob
, nonché le caratteristiche dei film che hanno guardato. Da un set di dati separato,
sai che alice
ha guardato movie_01
e gli è piaciuto. bob
ha guardato movie_02
e non gli è piaciuto. Pertanto, l'elenco delle istanze di lettura potrebbe avere il seguente
esempio:
users,movies,timestamp,liked "alice","movie_01",2021-04-15T08:28:14Z,true "bob","movie_02",2021-04-15T08:28:14Z,false
Vertex AI Feature Store (legacy) recupera i valori delle caratteristiche per in corrispondenza o prima dei timestamp specificati. Devi specificare le funzionalità specifiche da recuperare nell'ambito della richiesta di pubblicazione in batch, non nell'elenco delle istanze di lettura.
Questo esempio include anche una colonna denominata liked
, che indica se una
all'utente è piaciuto un film. Questa colonna non è inclusa nell'archivio di caratteristiche, ma puoi
passare comunque questi valori all'output del recupero dati in batch. Nell'output, questi dati
i valori pass-through sono uniti ai valori dell'archivio di caratteristiche.
Valori null
Se, in un determinato timestamp, un valore della funzionalità è nullo, Vertex AI Feature Store (legacy) restituisce il valore della funzionalità precedente non nullo. Se non sono presenti valori precedenti, Vertex AI Feature Store (legacy) restituisce null.
Gestisci in batch i valori delle funzionalità
Pubblica in batch i valori delle caratteristiche da un archivio di caratteristiche per ottenere i dati, come stabilito dal file dell'elenco delle istanze lette.
Se vuoi ridurre i costi di utilizzo dell'archiviazione offline leggendo i dati di addestramento recenti ed escludendo quelli vecchi, specifica un'ora di inizio. Per scoprire come ridurre il costo di utilizzo dello spazio di archiviazione offline specificando un'ora di inizio, consulta Specificare un'ora di inizio per ottimizzare i costi di archiviazione offline durante l'esportazione e la pubblicazione batch.
UI web
Utilizza un altro metodo. Non puoi pubblicare funzionalità in batch dalla console Google Cloud.
REST
Per eseguire il recupero dati in batch dei valori delle funzionalità, invia una richiesta POST utilizzando il metodo featurestores.batchReadFeatureValues.
Il seguente esempio restituisce una tabella BigQuery contenente la caratteristica
per i tipi di entità users
e movies
. Nota
che ogni destinazione di output potrebbe avere alcuni prerequisiti prima di poter inviare
una richiesta. Ad esempio, se specifichi un nome di tabella per
bigqueryDestination
, devi avere un set di dati esistente. Questi
sono documentati nel riferimento API.
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION_ID: regione in cui è stato creato l'archivio di caratteristiche. Ad esempio,
us-central1
. - PROJECT_ID: il tuo ID progetto.
- FEATURESTORE_ID: ID dell'archivio di caratteristiche.
- DATASET_NAME: nome del set di dati BigQuery di destinazione.
- TABLE_NAME: nome della tabella BigQuery di destinazione.
- STORAGE_LOCATION: URI Cloud Storage del file CSV delle istanze di lettura.
Metodo HTTP e URL:
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/featurestores/FEATURESTORE_ID:batchReadFeatureValues
Corpo JSON della richiesta:
{ "destination": { "bigqueryDestination": { "outputUri": "bq://PROJECT_ID.DATASET_NAME.TABLE_NAME" } }, "csvReadInstances": { "gcsSource": { "uris": ["STORAGE_LOCATION"] } }, "entityTypeSpecs": [ { "entityTypeId": "users", "featureSelector": { "idMatcher": { "ids": ["age", "liked_genres"] } } }, { "entityTypeId": "movies", "featureSelector": { "idMatcher": { "ids": ["title", "average_rating", "genres"] } } } ], "passThroughFields": [ { "fieldName": "liked" } ] }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/featurestores/FEATURESTORE_ID:batchReadFeatureValues"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/featurestores/FEATURESTORE_ID:batchReadFeatureValues" | Select-Object -Expand Content
Dovresti vedere un output simile al seguente. Puoi utilizzare lo OPERATION_ID nella risposta a recupera il dell'operazione.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION_ID/featurestores/FEATURESTORE_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.BatchReadFeatureValuesOperationMetadata", "genericMetadata": { "createTime": "2021-03-02T00:03:41.558337Z", "updateTime": "2021-03-02T00:03:41.558337Z" } } }
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.
Linguaggi aggiuntivi
Puoi installare e utilizzare il le seguenti librerie client di Vertex AI per chiamare l'API Vertex AI. Le librerie client di Cloud offrono uno sviluppatore ottimizzato l'esperienza utilizzando le convenzioni naturali stili di ogni lingua supportata.
Visualizza i job di recupero dati in batch
Utilizza la console Google Cloud per visualizzare i job di pubblicazione batch in un progetto Google Cloud.
UI web
- Nella sezione Vertex AI della console Google Cloud, vai alla pagina Funzionalità.
- Seleziona una regione dall'elenco a discesa Regione.
- Nella barra delle azioni, fai clic su Visualizza job di recupero dati in batch per elencare i job batch per tutti gli archivi di caratteristiche.
- Fai clic sull'ID di un job di pubblicazione batch per visualizzarne i dettagli, ad esempio l'origine dell'istanza di lettura utilizzata e la destinazione di output.
Passaggi successivi
- Scopri come importare in batch i valori delle caratteristiche.
- Scopri come pubblicare funzionalità tramite la pubblicazione online.
- Visualizza il job batch simultaneo di Vertex AI Feature Store (legacy) di archiviazione.
- Risoluzione dei problemi comuni Problemi relativi a Vertex AI Feature Store (legacy).