Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Para la importación por lotes, Vertex AI Feature Store (heredado) puede importar datos desde tablas en BigQuery o archivos en Cloud Storage.
Usa la tabla de BigQuery si necesitas importar todo el conjunto de datos y no necesitas filtros de partición.
Usa la vista de BigQuery si necesitas importar un subconjunto específico del conjunto de datos. Esta opción es más eficiente y le permite importar selecciones específicas de todo el conjunto de datos, incluidas las tablas generadas a partir de los datos.
Los datos que se encuentran en los archivos importados desde Cloud Storage deben estar en formato AVRO o CSV.
Para la importación de transmisiones, debes proporcionar los valores de los atributos para importar en la solicitud a la API.
No se aplican estos requisitos de datos de origen. Para obtener más información, consulta la referencia de la API de writeFeatureValues.
Cada elemento (o fila) debe cumplir con los siguientes requisitos:
Debe tener una columna para las ID de la entidad y los valores deben ser del tipo STRING. Esta columna contiene las ID de la entidad a las que corresponden los valores de los atributos.
Los tipos de valores de datos de origen deben coincidir con los tipos de valor de la función de destino en el almacén de atributos. Por ejemplo, los valores booleanos se deben importar a un atributo de tipo BOOL.
Todas las columnas deben tener un encabezado que sea del tipo STRING. No hay restricciones para el nombre de los encabezados.
En las tablas y las vistas de BigQuery, el encabezado de la columna es el nombre de la columna.
En Avro, el encabezado de la columna se define mediante el esquema de Avro que está asociado con los datos binarios.
En los archivos CSV, el encabezado de la columna es la primera fila.
Si brindas una columna con las marcas de tiempo de generación de atributos, usa uno de los siguientes formatos de marcas de tiempo:
En las tablas y vistas de BigQuery, las marcas de tiempo deben estar en la columna TIMESTAMP.
En Avro, las marcas de tiempo deben ser de tipo largo y de tipo timestamp-micros lógico.
En los archivos CSV, las marcas de tiempo deben estar en el formato RFC 3339.
Los archivos CSV no pueden incluir tipos de datos de array. En su lugar, usa Avro o BigQuery.
Para los tipos de array, no puedes incluir un valor nulo en el array. Sin embargo, puedes incluir un array vacío.
Marcas de tiempo del valor de los atributos
Para la importación por lotes, Vertex AI Feature Store (heredado) requiere marcas de tiempo proporcionadas por el usuario para los valores de atributos importados. Puedes especificar una marca de tiempo específica para cada valor o especificar la misma marca de tiempo para todos los valores:
Si las marcas de tiempo de los valores de atributos son diferentes, especifícalas en una columna de tus datos de origen. Cada fila debe tener su propia marca de tiempo que indique cuándo se generó el valor del atributo. En la solicitud de importación, especifica el nombre de la columna para identificar la columna de marca de tiempo.
Si la marca de tiempo de todos los valores de atributos es la misma, puedes especificarla como un parámetro en tu solicitud de importación. También puedes especificar la marca de tiempo en una columna en tus datos de origen, en la que cada fila tiene la misma marca de tiempo.
Región de la fuente de datos
Si los datos de origen están en BigQuery o Cloud Storage, el conjunto de datos o el bucket de origen deben estar en la misma región o en la misma ubicación multirregional que el featurestore. Por ejemplo, un featurestore en us-central1 puede importar datos solo desde buckets de Cloud Storage o conjuntos de datos de BigQuery que se encuentran en us-central1 o en la ubicación multirregión de EE.UU. No puedes usar datos de, por ejemplo, us-east1. Además, no se admiten los datos de origen de buckets de región doble.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Source data requirements\n\nFor batch import, Vertex AI Feature Store (Legacy) can import data from tables in\nBigQuery or files in Cloud Storage.\n\n- Use BigQuery table if you need to import the entire dataset and don't require partition filters.\n\n- Use BigQuery view if you need to import a specific subset of the dataset. This option is more time-efficient and lets you import specific selections from the entire dataset, including multiple tables generated from the data.\n\n- Data contained in files imported from Cloud Storage must be in AVRO or CSV format.\n\nFor streaming import, you provide the feature values to import in the API request.\nThese source data requirements don't apply. For more information, see the [writeFeatureValues API\nreference](/vertex-ai/docs/reference/rest/v1beta1/projects.locations.featurestores.entityTypes/writeFeatureValues).\n\nEach item (or row) must adhere to the following requirements:\n\n- You must have a column for entity IDs, and the values must be of type\n `STRING`. This column contains the entity IDs that the feature values are\n for.\n\n- Your source data value types must match the value types of the destination\n feature in the featurestore. For example, boolean values must be import into\n a feature that is of type `BOOL`.\n\n- All columns must have a header that are of type `STRING`. There are no\n restrictions on the name of the headers.\n\n - For BigQuery tables and BigQuery views, the column header is the column name.\n - For AVRO, the column header is defined by the AVRO schema that is associated with the binary data.\n - For CSV files, the column header is the first row.\n- If you provide a column for feature generation timestamps, use one of the\n following timestamp formats:\n\n - For BigQuery tables and BigQuery views, timestamps must be in the TIMESTAMP column.\n - For Avro, timestamps must be of type long and logical type timestamp-micros.\n - For CSV files, timestamps must be in the RFC 3339 format.\n- CSV files cannot include array data types. Use Avro or BigQuery\n instead.\n\n- For array types, you cannot include a null value in the array. Though, you can\n include an empty array.\n\nFeature value timestamps\n------------------------\n\nFor batch import, Vertex AI Feature Store (Legacy) requires user-provided\ntimestamps for the imported feature values. You can specify a particular\ntimestamp for each value or specify the same timestamp for all values:\n\n- If the timestamps for feature values are different, specify the timestamps in a column in your source data. Each row must have its own timestamp indicating when the feature value was generated. In your import request, you specify the column name to identify the timestamp column.\n- If the timestamp for all feature values is the same, you can specify it as a parameter in your import request. You can also specify the timestamp in a column in your source data, where each row has the same timestamp.\n\nData source region\n------------------\n\nIf your source data is in either BigQuery or Cloud Storage, the\nsource dataset or bucket must be in the same region or in the same\nmulti-regional location as your featurestore. For example, a featurestore in\n`us-central1` can import data only from Cloud Storage buckets or\nBigQuery datasets that are in `us-central1` or in the US multi-region\nlocation. You can't import data from, for example, `us-east1`. Also, source\ndata from dual-region buckets is not supported.\n\nWhat's next\n-----------\n\n- Learn about [setting up your project](/vertex-ai/docs/featurestore/setup) to use Vertex AI Feature Store (Legacy).\n- Learn how to [batch import feature values](/vertex-ai/docs/featurestore/ingesting-batch)."]]