Para crear un almacén de datos y transferir datos para recomendaciones genéricas, ve a la sección de la fuente que planeas usar:
URLs del sitio web
Console
Para usar la consola de Google Cloud y crear un almacén de datos y indexar datos de un sitio web, sigue estos pasos:
En la consola de Google Cloud, ve a la página Agent Builder.
En el menú de navegación, haz clic en Almacenes de datos.
Haz clic en Nuevo almacén de datos.
En la página Selecciona una fuente de datos, elige Contenido de sitios web.
Elige si quieres activar la indexación avanzada de sitios web para este almacén de datos. Esta opción no se puede desactivar más adelante.
La indexación avanzada de sitios web proporciona funciones adicionales, como el resumen de búsquedas, la búsqueda con preguntas adicionales y las respuestas extractivas. La indexación avanzada de sitios web genera un costo adicional y requiere que verifiques la propiedad del dominio de cualquier sitio web que indexes. Para obtener más información, consulta Indexación avanzada de sitios web y Precios.
En el campo Sitios que deben incluirse, especifica las URLs de los sitios web que deseas indexar. Incluye una URL por línea, sin separadores de comas.
Opcional: En el campo Sitios para excluir, ingresa los sitios web que quieres excluir de tu app.
Haga clic en Continuar.
Ingresa un nombre para tu almacén de datos.
Selecciona una ubicación para tu almacén de datos. La indexación avanzada de sitios web debe estar activada para seleccionar una ubicación.
Haz clic en Crear. Vertex AI Agent Builder crea tu almacén de datos y muestra tus almacenes de datos en la página Almacenes de datos.
Para ver información sobre tu almacén de datos, haz clic en su nombre en la columna Nombre. Aparecerá la página de tu almacén de datos.
Si activaste la indexación avanzada de sitios web, aparecerá una advertencia que te solicitará que verifiques la propiedad de tu dominio. Si tienes un déficit de cuota (la quantidad de páginas en los sitios web que especificaste supera la cuota de "Cantidad de documentos por proyecto" de tu proyecto), aparecerá una advertencia adicional que te solicitará que actualices tu cuota. En los siguientes pasos, se muestra cómo verificar la propiedad del dominio y actualizar tu cuota.
Para verificar la propiedad de tu dominio, sigue estos pasos:
- Haz clic en Verificar en Google Search Console. Aparecerá la página Te damos la bienvenida a Google Search Console.
- Sigue las instrucciones en pantalla para verificar un dominio o un prefijo de URL, según si verificas un dominio completo o un prefijo de URL que forma parte de un dominio. Para obtener más información, consulta Cómo verificar la propiedad de tu sitio en la Ayuda de Search Console.
- Cuando termines el flujo de trabajo de verificación de dominios, vuelve a la página Agent Builder y haz clic en Data Stores en el menú de navegación.
- Haz clic en el nombre de tu almacén de datos en la columna Nombre. Aparecerá la página del almacén de datos.
- Haz clic en Actualizar estado para actualizar los valores de la columna Estado. La columna Estado de tu sitio web indica que la indexación está en proceso.
- Repite los pasos de verificación de dominios para cada sitio web que requiera verificación de dominios hasta que todos comiencen a indexarse. Cuando la columna Estado de una URL muestra Indexada, las funciones de indexación avanzada de sitios web están disponibles para esa URL o patrón de URL.
Para actualizar tu cuota, sigue estos pasos:
- Haz clic en Actualizar cuota. Aparecerá el panel API de Discovery Engine con la pestaña Cuotas seleccionada.
- Sigue las instrucciones que se indican en Solicita un límite de cuota más alto en la documentación de Google Cloud. La cuota que se debe aumentar es Cantidad de documentos.
- Después de enviar tu solicitud de un límite de cuota más alto, vuelve a la página Agent Builder y haz clic en Data Stores en el menú de navegación.
- Haz clic en el nombre de tu almacén de datos en la columna Nombre. La columna Estado indica que la indexación está en curso para los sitios web que superaron la cuota. Cuando la columna Estado de una URL muestra Indexada, las funciones de indexación avanzada de sitios web están disponibles para esa URL o patrón de URL.
Próximos pasos
Para conectar tu almacén de datos a una app, crea una app y selecciona tu almacén de datos siguiendo los pasos que se indican en Cómo crear una app de recomendaciones genéricas.
Para obtener una vista previa de cómo aparecen tus recomendaciones después de configurar la app y el almacén de datos, consulta Obtén recomendaciones.
BigQuery
Para transferir datos de BigQuery, sigue estos pasos para crear un almacén de datos y transferir datos con la consola de Google Cloud o la API.
Antes de importar tus datos, consulta Prepara los datos para la transferencia.
Console
Para usar la consola de Google Cloud y transferir datos de BigQuery, sigue estos pasos:
En la consola de Google Cloud, ve a la página Agent Builder.
Ve a la página Almacenes de datos.
Haz clic en Nuevo almacén de datos.
En la página Tipo, selecciona BigQuery.
En el campo Ruta de acceso de BigQuery, haz clic en Explorar, selecciona una tabla que hayas preparado para transferir y, luego, haz clic en Seleccionar. Como alternativa, ingresa la ubicación de la tabla directamente en el campo Ruta de BigQuery.
Selecciona el tipo de datos que deseas importar.
Haga clic en Continuar.
Si realizas una importación única de datos estructurados, haz lo siguiente:
Asigna campos a propiedades clave.
Si faltan campos importantes en el esquema, usa Agregar campo nuevo para agregarlos.
Para obtener más información, consulta Acerca de la detección automática y la edición.
Haga clic en Continuar.
Elige una región para tu almacén de datos.
Ingresa un nombre para tu almacén de datos.
Haz clic en Crear.
Para confirmar que se creó tu almacén de datos, ve a la página Almacenes de datos y haz clic en el nombre del almacén de datos para ver los detalles en la página Datos.
Para verificar el estado de la transferencia, ve a la página Almacenes de datos y haz clic en el nombre de tu almacén de datos para ver los detalles en la página Datos. Cuando la columna de estado de la pestaña Actividad cambie de En curso a Importación completada, se habrá completado la transferencia.
Según el tamaño de tus datos, la transferencia puede tardar varios minutos o varias horas.
REST
Para usar la línea de comandos y crear un almacén de datos y, luego, importar datos desde BigQuery, sigue estos pasos:
Crea un almacén de datos.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"] }'
Reemplaza lo siguiente:
PROJECT_ID
: El ID del proyecto de Google Cloud.DATA_STORE_ID
: Es el ID del almacén de datos de recomendaciones que deseas crear. Este ID solo puede contener letras en minúscula, dígitos, guiones bajos y guiones.DATA_STORE_DISPLAY_NAME
: Es el nombre visible del almacén de datos de recomendaciones que deseas crear.
Opcional: Si subes datos estructurados con tu propio esquema, puedes proporcionarlo. Cuando proporcionas el esquema, por lo general, obtienes mejores resultados. De lo contrario, el esquema se detecta automáticamente. Para obtener más información, consulta Proporciona o detecta automáticamente un esquema.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/schemas/default_schema" \ -d '{ "structSchema": JSON_SCHEMA_OBJECT }'
Reemplaza lo siguiente:
PROJECT_ID
: El ID del proyecto de Google Cloud.DATA_STORE_ID
: El ID del almacén de datos de recomendaciones.JSON_SCHEMA_OBJECT
: Tu esquema JSON como objeto JSON, por ejemplo:{ "$schema": "https://json-schema.org/draft/2020-12/schema", "type": "object", "properties": { "title": { "type": "string", "keyPropertyMapping": "title" }, "categories": { "type": "array", "items": { "type": "string", "keyPropertyMapping": "category" } }, "uri": { "type": "string", "keyPropertyMapping": "uri" } } }
Importa datos de BigQuery.
Si definiste un esquema, asegúrate de que los datos cumplan con ese esquema.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "bigquerySource": { "projectId": "PROJECT_ID", "datasetId":"DATASET_ID", "tableId": "TABLE_ID", "dataSchema": "DATA_SCHEMA", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Reemplaza lo siguiente:
PROJECT_ID
: El ID del proyecto de Google Cloud.DATA_STORE_ID
: El ID del almacén de datos de recomendaciones.DATASET_ID
: El ID del conjunto de datos de BigQuery.TABLE_ID
: Es el ID de la tabla de BigQuery.- Si la tabla de BigQuery no está en
PROJECT_ID
, debes otorgarle a la cuenta de servicioservice-<project number>@gcp-sa-discoveryengine.iam.gserviceaccount.com
permiso de "Visualizador de datos de BigQuery" para la tabla de BigQuery. Por ejemplo, si importas una tabla de BigQuery del proyecto de origen "123" al proyecto de destino "456", otorga permisosservice-456@gcp-sa-discoveryengine.iam.gserviceaccount.com
para la tabla de BigQuery en el proyecto "123".
- Si la tabla de BigQuery no está en
DATA_SCHEMA
: Opcional Los valores sondocument
ycustom
. El valor predeterminado esdocument
.document
: La tabla de BigQuery que uses debe cumplir con el esquema predeterminado de BigQuery que se proporciona en Cómo preparar los datos para la transferencia. Puedes definir el ID de cada documento por tu cuenta, mientras unes todos los datos en la cadena jsonData.custom
: Se acepta cualquier esquema de tabla de BigQuery, y Recomendaciones genera automáticamente los IDs de cada documento que se importa.
ERROR_DIRECTORY
: Opcional Un directorio de Cloud Storage para obtener información sobre los errores de la importación (por ejemplo,gs://<your-gcs-bucket>/directory/import_errors
). Google recomienda dejar este campo vacío para que Recomendaciones cree automáticamente un directorio temporal.RECONCILIATION_MODE
: Opcional Los valores sonFULL
yINCREMENTAL
. El valor predeterminado esINCREMENTAL
. EspecificarINCREMENTAL
provoca una actualización incremental de los datos de BigQuery a tu almacén de datos. Esto realiza una operación de inserción y actualización, que agrega documentos nuevos y reemplaza los existentes por documentos actualizados con el mismo ID. EspecificarFULL
causa una rebase completa de los documentos en tu almacén de datos. En otras palabras, los documentos nuevos y actualizados se agregan a tu almacén de datos, y los documentos que no están en BigQuery se quitan de tu almacén de datos. El modoFULL
es útil si quieres borrar automáticamente los documentos que ya no necesitas.AUTO_GENERATE_IDS
: Opcional Especifica si se deben generar automáticamente los IDs de documento. Si se establece entrue
, los IDs de los documentos se generan en función de un hash de la carga útil. Ten en cuenta que los IDs de documentos generados pueden no mantenerse coherentes en varias importaciones. Si generas IDs automáticamente en varias importaciones, Google recomienda configurarreconciliationMode
comoFULL
para mantener IDs de documentos coherentes.Especifica
autoGenerateIds
solo cuandobigquerySource.dataSchema
se establece encustom
. De lo contrario, se muestra un errorINVALID_ARGUMENT
. Si no especificasautoGenerateIds
o lo configuras enfalse
, debes especificaridField
. De lo contrario, los documentos no se importarán.ID_FIELD
: Opcional Especifica qué campos son los IDs de los documentos. En el caso de los archivos de origen de BigQuery,idField
indica el nombre de la columna en la tabla de BigQuery que contiene los IDs de documentos.Especifica
idField
solo cuando: (1)bigquerySource.dataSchema
se establece comocustom
y (2)auto_generate_ids
se establece comofalse
o no se especifica. De lo contrario, se muestra un errorINVALID_ARGUMENT
.El valor del nombre de la columna de BigQuery debe ser de tipo cadena, debe tener entre 1 y 63 caracteres y debe cumplir con RFC-1034. De lo contrario, no se importarán los documentos.
C#
Para obtener más información, consulta la documentación de referencia de la API de C# del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Go
Para obtener más información, consulta la documentación de referencia de la API de Go del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Java
Para obtener más información, consulta la documentación de referencia de la API de Java del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Node.js
Para obtener más información, consulta la documentación de referencia de la API de Node.js del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Python
Para obtener más información, consulta la documentación de referencia de la API de Python del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Ruby
Para obtener más información, consulta la documentación de referencia de la API de Ruby del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Próximos pasos
Para conectar tu almacén de datos a una app, crea una app y selecciona tu almacén de datos siguiendo los pasos que se indican en Cómo crear una app de recomendaciones genéricas.
Para obtener una vista previa de cómo aparecen tus recomendaciones después de configurar la app y el almacén de datos, consulta Obtén recomendaciones.
Cloud Storage
Para transferir datos desde Cloud Storage, sigue estos pasos para crear un almacén de datos y transferir datos con la consola de Google Cloud o la API.
Antes de importar tus datos, consulta Prepara los datos para la transferencia.
Console
Para usar la consola y transferir datos de un bucket de Cloud Storage, sigue estos pasos:
En la consola de Google Cloud, ve a la página Agent Builder.
Ve a la página Almacenes de datos.
Haz clic en Nuevo almacén de datos.
En la página Tipo, selecciona Cloud Storage.
En la sección Selecciona una carpeta o un archivo que desees importar, selecciona Carpeta o Archivo.
Haz clic en Explorar y elige los datos que preparaste para transferir. Luego, haz clic en Seleccionar. Como alternativa, ingresa la ubicación directamente en el campo
gs://
.Selecciona el tipo de datos que deseas importar.
Haga clic en Continuar.
Si realizas una importación única de datos estructurados, haz lo siguiente:
Asigna campos a propiedades clave.
Si faltan campos importantes en el esquema, usa Agregar campo nuevo para agregarlos.
Para obtener más información, consulta Acerca de la detección automática y la edición.
Haga clic en Continuar.
Elige una región para tu almacén de datos.
Ingresa un nombre para tu almacén de datos.
Haz clic en Crear.
Para confirmar que se creó tu almacén de datos, ve a la página Almacenes de datos y haz clic en el nombre del almacén de datos para ver los detalles en la página Datos.
Para verificar el estado de la transferencia, ve a la página Almacenes de datos y haz clic en el nombre de tu almacén de datos para ver los detalles en la página Datos. Cuando la columna de estado de la pestaña Actividad cambie de En curso a Importación completada, se habrá completado la transferencia.
Según el tamaño de tus datos, la transferencia puede tardar varios minutos o varias horas.
REST
Para usar la línea de comandos y crear un almacén de datos y transferir datos desde Cloud Storage, sigue estos pasos:
Crea un almacén de datos.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"], "contentConfig": "CONTENT_REQUIRED" }'
Reemplaza lo siguiente:
PROJECT_ID
: El ID del proyecto de Google Cloud.DATA_STORE_ID
: Es el ID del almacén de datos de recomendaciones que deseas crear. Este ID solo puede contener letras en minúscula, dígitos, guiones bajos y guiones.DATA_STORE_DISPLAY_NAME
: Es el nombre visible del almacén de datos de recomendaciones que deseas crear.
Importar datos desde Cloud Storage.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "gcsSource": { "inputUris": ["INPUT_FILE_PATTERN_1", "INPUT_FILE_PATTERN_2"], "dataSchema": "DATA_SCHEMA", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Reemplaza lo siguiente:
PROJECT_ID
: El ID del proyecto de Google Cloud.DATA_STORE_ID
: El ID del almacén de datos de recomendaciones.INPUT_FILE_PATTERN
: Es un patrón de archivo en Cloud Storage que contiene tus documentos.Para datos estructurados o datos no estructurados con metadatos para documentos no estructurados, un ejemplo del patrón de archivo de entrada es
gs://<your-gcs-bucket>/directory/object.json
, o un patrón que coincida con uno o más archivos, comogs://<your-gcs-bucket>/directory/*.json
.Para los documentos no estructurados, un ejemplo es
gs://<your-gcs-bucket>/directory/*.pdf
. Cada archivo que coincida con el patrón se convierte en un documento.Si
<your-gcs-bucket>
no está debajo dePROJECT_ID
, debes otorgarle a la cuenta de servicioservice-<project number>@gcp-sa-discoveryengine.iam.gserviceaccount.com
los permisos de “Visualizador de objetos de almacenamiento” para el bucket de Cloud Storage. Por ejemplo, si importas un bucket de Cloud Storage del proyecto de origen "123" al proyecto de destino "456", otorga permisosservice-456@gcp-sa-discoveryengine.iam.gserviceaccount.com
en el bucket de Cloud Storage del proyecto "123".DATA_SCHEMA
: Opcional Los valores sondocument
,custom
,csv
ycontent
. El valor predeterminado esdocument
.document
: Sube datos no estructurados con metadatos para documentos no estructurados. Cada línea del archivo debe seguir uno de los siguientes formatos. Puedes definir el ID de cada documento:{ "id": "<your-id>", "jsonData": "<JSON string>", "content": { "mimeType": "<application/pdf or text/html>", "uri": "gs://<your-gcs-bucket>/directory/filename.pdf" } }
{ "id": "<your-id>", "structData": <JSON object>, "content": { "mimeType": "<application/pdf or text/html>", "uri": "gs://<your-gcs-bucket>/directory/filename.pdf" } }
custom
: Sube JSON para documentos estructurados. Los datos se organizan según un esquema. Puedes especificar el esquema. De lo contrario, se detectará automáticamente. Puedes colocar la cadena JSON del documento en un formato coherente directamente en cada línea, y Recomendaciones genera automáticamente los IDs de cada documento importado.content
: Sube documentos no estructurados (PDF, HTML, DOC, TXT y PPTX). El ID de cada documento se genera automáticamente como los primeros 128 bits de SHA256(GCS_URI) codificados como una cadena hexadecimal. Puedes especificar varios patrones de archivos de entrada, siempre y cuando los archivos coincidentes no superen el límite de 100,000 archivos.csv
: Incluye una fila de encabezado en el archivo CSV, con cada encabezado asignado a un campo de documento. Especifica la ruta de acceso al archivo CSV con el campoinputUris
.
ERROR_DIRECTORY
: Opcional Un directorio de Cloud Storage para obtener información sobre los errores de la importación (por ejemplo,gs://<your-gcs-bucket>/directory/import_errors
) Google recomienda dejar este campo vacío para que Recomendaciones cree automáticamente un directorio temporal.RECONCILIATION_MODE
: Opcional Los valores sonFULL
yINCREMENTAL
. El valor predeterminado esINCREMENTAL
. EspecificarINCREMENTAL
provoca una actualización incremental de los datos de Cloud Storage a tu almacén de datos. Esto realiza una operación de inserción y actualización, que agrega documentos nuevos y reemplaza los existentes por documentos actualizados con el mismo ID. EspecificarFULL
causa una rebase completa de los documentos en tu almacén de datos. En otras palabras, se agregan documentos nuevos y actualizados a tu almacén de datos, y se quitan los documentos que no están en Cloud Storage. El modoFULL
es útil si quieres borrar automáticamente los documentos que ya no necesitas.AUTO_GENERATE_IDS
: Opcional Especifica si se deben generar automáticamente los IDs de documento. Si se establece entrue
, los IDs de los documentos se generan en función de un hash de la carga útil. Ten en cuenta que los IDs de documentos generados pueden no ser coherentes en varias importaciones. Si generas IDs automáticamente en varias importaciones, Google recomienda configurarreconciliationMode
comoFULL
para mantener IDs de documentos coherentes.Especifica
autoGenerateIds
solo cuandogcsSource.dataSchema
esté configurado comocustom
ocsv
. De lo contrario, se muestra un errorINVALID_ARGUMENT
. Si no especificasautoGenerateIds
o lo configuras enfalse
, debes especificaridField
. De lo contrario, no se podrán importar los documentos.ID_FIELD
: Opcional Especifica qué campos son los IDs de los documentos. En el caso de los documentos de origen de Cloud Storage,idField
especifica el nombre en los campos JSON que son IDs de documentos. Por ejemplo, si{"my_id":"some_uuid"}
es el campo de ID de documento en uno de tus documentos, especifica"idField":"my_id"
. Esto identifica todos los campos JSON con el nombre"my_id"
como IDs de documentos.Especifica este campo solo cuando: (1)
gcsSource.dataSchema
esté configurado comocustom
ocsv
, y (2)auto_generate_ids
esté configurado comofalse
o no se especifique. De lo contrario, se muestra un errorINVALID_ARGUMENT
.Ten en cuenta que el valor del campo JSON de Cloud Storage debe ser de tipo cadena, debe tener entre 1 y 63 caracteres y debe cumplir con la RFC-1034. De lo contrario, no se podrán importar los documentos.
Ten en cuenta que el nombre del campo JSON especificado por
id_field
debe ser de tipo cadena, debe tener entre 1 y 63 caracteres y debe cumplir con RFC-1034. De lo contrario, no se podrán importar los documentos.
C#
Para obtener más información, consulta la documentación de referencia de la API de C# del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Go
Para obtener más información, consulta la documentación de referencia de la API de Go del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Java
Para obtener más información, consulta la documentación de referencia de la API de Java del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Node.js
Para obtener más información, consulta la documentación de referencia de la API de Node.js del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Python
Para obtener más información, consulta la documentación de referencia de la API de Python del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Ruby
Para obtener más información, consulta la documentación de referencia de la API de Ruby del compilador de agentes de Vertex AI.
Para autenticarte en Vertex AI Agent Builder, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, se transfieren datos no estructurados de BigQuery o Cloud Storage a un almacén de datos existente.
Próximos pasos
Para conectar tu almacén de datos a una app, crea una app y selecciona tu almacén de datos siguiendo los pasos que se indican en Cómo crear una app de recomendaciones genéricas.
Para obtener una vista previa de cómo aparecen tus recomendaciones después de configurar la app y el almacén de datos, consulta Obtén recomendaciones.
Sube datos JSON estructurados con la API
Para subir directamente un documento o objeto JSON con la API, sigue estos pasos.
Antes de importar tus datos, prepáralos para la transferencia.
REST
Para usar la línea de comandos y crear un almacén de datos y, luego, importar datos JSON estructurados, sigue estos pasos:
Crea un almacén de datos.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"] }'
Reemplaza lo siguiente:
PROJECT_ID
: El ID del proyecto de Google Cloud.DATA_STORE_ID
: Es el ID del almacén de datos de recomendaciones que deseas crear. Este ID solo puede contener letras en minúscula, dígitos, guiones bajos y guiones.DATA_STORE_DISPLAY_NAME
: Es el nombre visible del almacén de datos de recomendaciones que deseas crear.
Opcional: Proporciona tu propio esquema. Cuando proporcionas un esquema, por lo general, obtienes mejores resultados. Para obtener más información, consulta Proporciona o detecta automáticamente un esquema.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/schemas/default_schema" \ -d '{ "structSchema": JSON_SCHEMA_OBJECT }'
Reemplaza lo siguiente:
PROJECT_ID
: El ID del proyecto de Google Cloud.DATA_STORE_ID
: El ID del almacén de datos de recomendaciones.JSON_SCHEMA_OBJECT
: Tu esquema JSON como objeto JSON, por ejemplo:{ "$schema": "https://json-schema.org/draft/2020-12/schema", "type": "object", "properties": { "title": { "type": "string", "keyPropertyMapping": "title" }, "categories": { "type": "array", "items": { "type": "string", "keyPropertyMapping": "category" } }, "uri": { "type": "string", "keyPropertyMapping": "uri" } } }
Importa datos estructurados que se ajusten al esquema definido.
Existen algunos enfoques que puedes usar para subir datos, como los siguientes:
Sube un documento JSON.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents?documentId=DOCUMENT_ID" \ -d '{ "jsonData": "JSON_DOCUMENT_STRING" }'
Reemplaza
JSON_DOCUMENT_STRING
por el documento JSON como una sola cadena. Debe cumplir con el esquema JSON que proporcionaste en el paso anterior, por ejemplo:```none { \"title\": \"test title\", \"categories\": [\"cat_1\", \"cat_2\"], \"uri\": \"test uri\"} ```
Sube un objeto JSON.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents?documentId=DOCUMENT_ID" \ -d '{ "structData": JSON_DOCUMENT_OBJECT }'
Reemplaza
JSON_DOCUMENT_OBJECT
por el documento JSON como un objeto JSON. Debe cumplir con el esquema JSON que proporcionaste en el paso anterior, por ejemplo:```json { "title": "test title", "categories": [ "cat_1", "cat_2" ], "uri": "test uri" } ```
Actualiza con un documento JSON.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents/DOCUMENT_ID" \ -d '{ "jsonData": "JSON_DOCUMENT_STRING" }'
Actualiza con un objeto JSON.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents/DOCUMENT_ID" \ -d '{ "structData": JSON_DOCUMENT_OBJECT }'
Próximos pasos
Para conectar tu almacén de datos a una app, crea una app y selecciona tu almacén de datos siguiendo los pasos que se indican en Cómo crear una app de recomendaciones genéricas.
Para obtener una vista previa de cómo aparecen tus recomendaciones después de configurar la app y el almacén de datos, consulta Obtén recomendaciones.
Crea un almacén de datos con Terraform
Puedes usar Terraform para crear un almacén de datos vacío. Después de crear el almacén de datos vacío, puedes transferir datos al almacén con la consola de Google Cloud o los comandos de la API.
Si deseas obtener más información para aplicar o quitar una configuración de Terraform, consulta los comandos básicos de Terraform.
Para crear un almacén de datos vacío con Terraform, consulta
google_discovery_engine_data_store
.