Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Per l'importazione batch, Vertex AI Feature Store (legacy) può importare i dati dalle tabelle in
BigQuery o dai file in Cloud Storage.
Utilizza la tabella BigQuery se devi importare l'intero set di dati e non richiedi filtri di partizione.
Utilizza la vista BigQuery se devi importare un sottoinsieme specifico del set di dati. Questa opzione è più efficiente in termini di tempo e ti consente di importare selezioni specifiche dall'intero set di dati, incluse più tabelle generate dai dati.
I dati contenuti nei file importati da Cloud Storage devono essere in formato AVRO o CSV.
Per l'importazione in streaming, fornisci i valori delle caratteristiche da importare nella richiesta API.
Questi requisiti per i dati di origine non si applicano. Per ulteriori informazioni, consulta il riferimento
dell'API writeFeatureValues.
Ogni elemento (o riga) deve rispettare i seguenti requisiti:
Devi avere una colonna per gli ID entità e i valori devono essere di tipo
STRING. Questa colonna contiene gli ID entità a cui si riferiscono i valori delle caratteristiche.
I tipi di valore dei dati di origine devono corrispondere ai tipi di valore della caratteristica di destinazione nell'archivio di caratteristiche. Ad esempio, i valori booleani devono essere importati in
una caratteristica di tipo BOOL.
Tutte le colonne devono avere un'intestazione di tipo STRING. Non ci sono
restrizioni sul nome delle intestazioni.
Per le tabelle BigQuery e le viste BigQuery, l'intestazione della colonna è il nome della colonna.
Per AVRO, l'intestazione della colonna è definita dallo schema AVRO associato
ai dati binari.
Per i file CSV, l'intestazione della colonna è la prima riga.
Se fornisci una colonna per i timestamp di generazione delle caratteristiche, usa uno dei seguenti formati di timestamp:
Per le tabelle BigQuery e le viste BigQuery, i timestamp devono essere nella colonna TIMESTAMP.
Per Avro, i timestamp devono essere di tipo long e di tipo logico timestamp-micros.
Per i file CSV, i timestamp devono essere nel formato RFC 3339.
I file CSV non possono includere tipi di dati di tipo array. Usa invece Avro o BigQuery.
Per i tipi di array, non è possibile includere un valore nullo nell'array. Tuttavia, puoi
includere un array vuoto.
Timestamp dei valori delle caratteristiche
Per l'importazione batch, Vertex AI Feature Store (legacy) richiede timestamp forniti dall'utente per i valori delle caratteristiche importati. Puoi specificare un timestamp particolare per ogni valore o specificare lo stesso timestamp per tutti i valori:
Se i timestamp dei valori delle caratteristiche sono diversi, specificarli in
una colonna dei dati di origine. Ogni riga deve avere il proprio timestamp che indica
quando è stato generato il valore della funzionalità. Nella richiesta di importazione, specifica
il nome della colonna per identificare la colonna del timestamp.
Se il timestamp di tutti i valori delle caratteristiche è lo stesso, puoi specificarlo come
parametro nella richiesta di importazione. Puoi anche specificare il timestamp in una
colonna dei dati di origine, in cui ogni riga ha lo stesso timestamp.
Regione dell'origine dati
Se i dati di origine si trovano in BigQuery o Cloud Storage, il set di dati o il bucket di origine deve trovarsi nella stessa regione o nella stessa località multiregionale dell'archivio delle funzionalità. Ad esempio, un featurestore in
us-central1 può importare dati solo da bucket Cloud Storage o
set di dati BigQuery che si trovano in us-central1 o nella località
multiregionale degli Stati Uniti. Non puoi importare dati, ad esempio, da us-east1. Inoltre, i dati di origine
dai bucket dual-region non sono supportati.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# Source data requirements\n\nFor batch import, Vertex AI Feature Store (Legacy) can import data from tables in\nBigQuery or files in Cloud Storage.\n\n- Use BigQuery table if you need to import the entire dataset and don't require partition filters.\n\n- Use BigQuery view if you need to import a specific subset of the dataset. This option is more time-efficient and lets you import specific selections from the entire dataset, including multiple tables generated from the data.\n\n- Data contained in files imported from Cloud Storage must be in AVRO or CSV format.\n\nFor streaming import, you provide the feature values to import in the API request.\nThese source data requirements don't apply. For more information, see the [writeFeatureValues API\nreference](/vertex-ai/docs/reference/rest/v1beta1/projects.locations.featurestores.entityTypes/writeFeatureValues).\n\nEach item (or row) must adhere to the following requirements:\n\n- You must have a column for entity IDs, and the values must be of type\n `STRING`. This column contains the entity IDs that the feature values are\n for.\n\n- Your source data value types must match the value types of the destination\n feature in the featurestore. For example, boolean values must be import into\n a feature that is of type `BOOL`.\n\n- All columns must have a header that are of type `STRING`. There are no\n restrictions on the name of the headers.\n\n - For BigQuery tables and BigQuery views, the column header is the column name.\n - For AVRO, the column header is defined by the AVRO schema that is associated with the binary data.\n - For CSV files, the column header is the first row.\n- If you provide a column for feature generation timestamps, use one of the\n following timestamp formats:\n\n - For BigQuery tables and BigQuery views, timestamps must be in the TIMESTAMP column.\n - For Avro, timestamps must be of type long and logical type timestamp-micros.\n - For CSV files, timestamps must be in the RFC 3339 format.\n- CSV files cannot include array data types. Use Avro or BigQuery\n instead.\n\n- For array types, you cannot include a null value in the array. Though, you can\n include an empty array.\n\nFeature value timestamps\n------------------------\n\nFor batch import, Vertex AI Feature Store (Legacy) requires user-provided\ntimestamps for the imported feature values. You can specify a particular\ntimestamp for each value or specify the same timestamp for all values:\n\n- If the timestamps for feature values are different, specify the timestamps in a column in your source data. Each row must have its own timestamp indicating when the feature value was generated. In your import request, you specify the column name to identify the timestamp column.\n- If the timestamp for all feature values is the same, you can specify it as a parameter in your import request. You can also specify the timestamp in a column in your source data, where each row has the same timestamp.\n\nData source region\n------------------\n\nIf your source data is in either BigQuery or Cloud Storage, the\nsource dataset or bucket must be in the same region or in the same\nmulti-regional location as your featurestore. For example, a featurestore in\n`us-central1` can import data only from Cloud Storage buckets or\nBigQuery datasets that are in `us-central1` or in the US multi-region\nlocation. You can't import data from, for example, `us-east1`. Also, source\ndata from dual-region buckets is not supported.\n\nWhat's next\n-----------\n\n- Learn about [setting up your project](/vertex-ai/docs/featurestore/setup) to use Vertex AI Feature Store (Legacy).\n- Learn how to [batch import feature values](/vertex-ai/docs/featurestore/ingesting-batch)."]]