Actualiza las propiedades del conjunto de datos
En este documento, se describe cómo actualizar las propiedades de los conjuntos de datos en BigQuery. Después de crear un conjunto de datos, puedes actualizar las siguientes propiedades:
- Controles de acceso
- Modelo de facturación
- Tiempo de caducidad predeterminado para tablas nuevas
- Caducidad de las particiones predeterminada para tablas particionadas nuevas
- Modo de redondeo predeterminado para tablas nuevas
- Descripción
- Labels
- Ventanas de viaje en el tiempo
Antes de comenzar
Otorga roles de Identity and Access Management (IAM) que les brindan a los usuarios los permisos necesarios para hacer cada tarea de este documento.
Permisos necesarios
Para actualizar las propiedades del conjunto de datos, necesitas los siguientes permisos de IAM:
bigquery.datasets.update
bigquery.datasets.setIamPolicy
(solo es necesaria cuando se actualizan los controles de acceso del conjunto de datos en la consola de Google Cloud)
El rol predefinido de IAM roles/bigquery.dataOwner
incluye los permisos que necesitas para actualizar las propiedades de un conjunto de datos.
Además, si tienes el permiso bigquery.datasets.create
, puedes actualizar las etiquetas de los conjuntos de datos que crees.
Para obtener más información sobre los roles y los permisos de IAM en BigQuery, consulta Funciones y permisos predefinidos.
Actualiza las descripciones de los conjuntos de datos
Puedes actualizar la descripción de un conjunto de datos de las siguientes maneras:
- Usa la consola de Google Cloud
- Usa el comando
bq update
de la herramienta de línea de comandos de bq. - Mediante una llamada al método de la API
datasets.patch
- Usa las bibliotecas cliente.
Para actualizar la descripción de un conjunto de datos, haz lo siguiente:
Console
En el panel Explorador, expande tu proyecto y selecciona un conjunto de datos.
Expande la opción Acciones
y haz clic en Abrir.En el panel Detalles, haz clic en
Editar detalles para editar el texto de la descripción.En el cuadro de diálogo Editar detalles que aparece, haz lo siguiente:
- En el campo Descripción, ingresa una descripción o edita la descripción existente.
- Para guardar el nuevo texto de la descripción, haz clic en Guardar.
SQL
Si deseas actualizar la descripción de un conjunto de datos, usa la declaración ALTER SCHEMA SET OPTIONS
para configurar la opción description
.
En el siguiente ejemplo, se establece la descripción de un conjunto de datos llamado mydataset
:
En la consola de Google Cloud, ve a la página de BigQuery.
En el editor de consultas, escribe la siguiente sentencia:
ALTER SCHEMA mydataset SET OPTIONS ( description = 'Description of mydataset');
Haz clic en
Ejecutar.
Si deseas obtener información sobre cómo ejecutar consultas, visita Ejecuta una consulta interactiva.
bq
Ejecuta el comando bq update
con la marca --description
. Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset
.
bq update \ --description "string" \ project_id:dataset
Reemplaza lo siguiente:
string
: es el texto que describe el conjunto de datos entre comillasproject_id
: el ID de tu proyectodataset
: es el nombre del conjunto de datos que actualizas
Ejemplos:
Ingresa el siguiente comando para cambiar la descripción de mydataset
a “Description of mydataset”. mydataset
está en tu proyecto predeterminado.
bq update --description "Description of mydataset" mydataset
Ingresa el siguiente comando para cambiar la descripción de mydataset
a “Description of mydataset”. El conjunto de datos se encuentra en myotherproject
, no en el proyecto predeterminado.
bq update \
--description "Description of mydataset" \
myotherproject:mydataset
API
Llama a datasets.patch
y actualiza la propiedad description
en el recurso de conjunto de datos.
Debido a que el método datasets.update
reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch
.
Go
Antes de probar este ejemplo, sigue las instrucciones de configuración para Go incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Java
Antes de probar este ejemplo, sigue las instrucciones de configuración para Java incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Java.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.Node.js
Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Node.js.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Python
Antes de probar este ejemplo, sigue las instrucciones de configuración para Python incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Configura la propiedad Dataset.description y llama a Client.update_dataset() para enviar la actualización a la API.Actualizar los tiempos de vencimiento predeterminados de la tabla
Puedes actualizar la fecha y hora de vencimiento predeterminada de las tablas de un conjunto de datos de las siguientes maneras:
- Usa la consola de Google Cloud
- Usa el comando
bq update
de la herramienta de línea de comandos de bq. - Mediante una llamada al método de la API
datasets.patch
- Usa las bibliotecas cliente.
Puedes determinar una fecha de vencimiento de la tabla predeterminada a nivel de conjunto de datos o puedes configurarla cuando se crea la tabla. Si estableces el vencimiento cuando creas la tabla, se anula la configuración predeterminada. Si no defines un tiempo de vencimiento predeterminado para las tablas a nivel del conjunto de datos ni lo haces cuando creas una tabla, la tabla nunca vencerá y deberás borrarla manualmente. Cuando una tabla vence, se borra junto con todos los datos que contiene.
Ten en cuenta lo siguiente cuando actualizas la configuración predeterminada de caducidad de la tabla de un conjunto de datos:
- Si cambias el valor de
Never
a un tiempo de vencimiento específico, cualquier tabla que ya exista en el conjunto de datos no vencerá a menos que se haya configurado el tiempo de vencimiento en la tabla cuando se creó. - Si cambias el valor del vencimiento predeterminado para las tablas, cualquier tabla que ya exista vencerá según la configuración original. Se aplicará la nueva configuración de vencimiento de tablas a todas las tablas nuevas que se creen en el conjunto de datos, a menos que especifiques un vencimiento distinto durante la creación.
El valor del vencimiento predeterminado de tablas se expresa de manera diferente según dónde se configure el valor. Usa el método que te dé el nivel de detalle adecuado:
- En la consola de Google Cloud, el vencimiento se expresa en días.
- En la herramienta de línea de comandos de bq, el vencimiento se expresa en segundos.
- En la API, la caducidad se expresa en milisegundos.
Para actualizar el tiempo de vencimiento predeterminado de un conjunto de datos, haz lo siguiente:
Console
En el panel Explorador, expande tu proyecto y selecciona un conjunto de datos.
Expande la opción Acciones
y haz clic en Abrir.En la página Detalles, haz clic en el ícono de lápiz junto a Información del conjunto de datos (Dataset info) para editar el vencimiento.
En la sección Vencimiento predeterminado de la tabla (Default table expiration) del diálogo Información del conjunto de datos (Dataset info), ingresa un valor para Cantidad de días después de la creación de la tabla (Number of days after table creation).
Haz clic en Guardar.
SQL
A fin de actualizar la fecha de vencimiento predeterminado de la partición, usa la declaración ALTER SCHEMA SET OPTIONS
para configurar la opción default_table_expiration_days
.
En el ejemplo siguiente, se actualiza el vencimiento predeterminado de las tablas para un conjunto de datos llamado mydataset
.
En la consola de Google Cloud, ve a la página de BigQuery.
En el editor de consultas, escribe la siguiente sentencia:
ALTER SCHEMA mydataset SET OPTIONS( default_table_expiration_days = 3.75);
Haz clic en
Ejecutar.
Si deseas obtener información sobre cómo ejecutar consultas, visita Ejecuta una consulta interactiva.
bq
Para actualizar el tiempo de vencimiento predeterminado de las tablas recién creadas en un conjunto de datos, ingresa el comando bq update
con la marca --default_table_expiration
.
Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset
.
bq update \ --default_table_expiration integer \ project_id:dataset
Reemplaza lo siguiente:
integer
: la duración predeterminada, en segundos, de las tablas recién creadas. El valor mínimo es 3,600 segundos (una hora). La hora de vencimiento se evalúa según la hora UTC actual más el número entero. Especifica0
para quitar el vencimiento existente. Cualquier tabla creada en el conjunto de datos se borra eninteger
segundos después de su hora de creación. Este valor se aplica si no estableces el vencimiento de la tabla cuando la creas.project_id
: el ID de tu proyecto.dataset
: es el nombre del conjunto de datos que actualizas
Ejemplos:
Ingresa el siguiente comando a fin de establecer la fecha de caducidad predeterminada para las tablas nuevas creadas en mydataset
como dos horas (7,200 segundos) a partir de la hora actual. El conjunto de datos se encuentra en tu proyecto predeterminado.
bq update --default_table_expiration 7200 mydataset
Ingresa el siguiente comando a fin de establecer la fecha de caducidad predeterminada para las tablas nuevas creadas en mydataset
como dos horas (7,200 segundos) a partir de la hora actual. El conjunto de datos se encuentra en myotherproject
, no en el proyecto predeterminado.
bq update --default_table_expiration 7200 myotherproject:mydataset
API
Llama a datasets.patch
y actualiza la propiedad defaultTableExpirationMs
en el recurso de conjunto de datos.
El vencimiento se expresa en milisegundos en la API. Debido a que el método datasets.update
reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch
.
Go
Antes de probar este ejemplo, sigue las instrucciones de configuración para Go incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Java
Antes de probar este ejemplo, sigue las instrucciones de configuración para Java incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Java.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.Configura el tiempo de caducidad predeterminado con el método Dataset.Builder.setDefaultTableLifetime().
Node.js
Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Node.js.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Python
Antes de probar este ejemplo, sigue las instrucciones de configuración para Python incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Configura la propiedad Dataset.default_table_expiration_ms y llama a Client.update_dataset() para enviar la actualización a la API.Actualiza los tiempos de vencimiento predeterminados de las particiones
Puedes actualizar el vencimiento predeterminado de las particiones de un conjunto de datos de las siguientes maneras:
- Usa el comando
bq update
de la herramienta de línea de comandos de bq. - Mediante una llamada al método de la API
datasets.patch
- Usa bibliotecas cliente.
Por el momento, la consola de Google Cloud no admite la configuración o actualización del vencimiento predeterminado de las particiones de un conjunto de datos.
Puedes configurar un tiempo de vencimiento predeterminado para las particiones al nivel del conjunto de datos, que se aplicarán a todas las tablas particionadas nuevas, o puedes configurar un vencimiento de partición para tablas individuales en el momento en que se crean. Si configuras el vencimiento predeterminado de las particiones y de las tablas a nivel del conjunto de datos, solo se definirá el vencimiento de las particiones de las nuevas tablas particionadas. Si configuras ambas opciones, el vencimiento predeterminado de las particiones anulará el vencimiento predeterminada de las tablas.
Si configuras el vencimiento de la partición cuando se crea la tabla particionada, ese valor anula el vencimiento de partición predeterminado al nivel de conjunto de datos, si existe alguno.
Si no configuras una caducidad predeterminada para la partición a nivel de conjunto de datos ni una caducidad para la partición cuando creas la tabla, las particiones nunca caducarán y deberás borrarlas de forma manual.
Cuando configuras una caducidad predeterminada para la partición en un conjunto de datos, la caducidad se aplica a todas las particiones en todas las tablas particionadas creadas en el conjunto de datos. Cuando configuras la caducidad de la partición en una tabla, la caducidad se aplica a todas las particiones creadas en la tabla especificada. En la actualidad, no puedes aplicar diferentes tiempos de caducidad a distintas particiones en la misma tabla.
Ten en cuenta lo siguiente cuando actualizas la configuración predeterminada de caducidad de la partición de un conjunto de datos:
- Si cambias el valor de
never
a un vencimiento definido, cualquier partición que ya exista en las tablas particionadas del conjunto de datos no se vencerá, a menos que se haya configurado el vencimiento de partición en la tabla durante su creación. - Si cambias el valor para la caducidad predeterminada de la partición, cualquier partición en las tablas particionadas existentes caducará según la caducidad predeterminada de la partición original. Todas las tablas particionadas nuevas creadas en el conjunto de datos tienen la configuración de caducidad nueva de la partición, a menos que especifiques una caducidad diferente para la partición en la tabla cuando la creas.
El valor para la caducidad predeterminada de la partición se expresa de manera diferente dependiendo de dónde se configura el valor. Usa el método que te dé el nivel de detalle adecuado:
- En la herramienta de línea de comandos de bq, el vencimiento se expresa en segundos.
- En la API, la caducidad se expresa en milisegundos.
Para actualizar la fecha y hora de vencimiento predeterminada de una partición en un conjunto de datos, haz lo siguiente:
Console
Por el momento, la consola de Google Cloud no permite actualizar el vencimiento predeterminado de las particiones de un conjunto de datos.
SQL
A fin de actualizar la fecha de vencimiento predeterminado de la partición, usa la declaración ALTER SCHEMA SET OPTIONS
para configurar la opción default_partition_expiration_days
.
En el siguiente ejemplo, se actualiza el vencimiento de la partición predeterminada para un conjunto de datos llamado mydataset
:
En la consola de Google Cloud, ve a la página de BigQuery.
En el editor de consultas, escribe la siguiente sentencia:
ALTER SCHEMA mydataset SET OPTIONS( default_partition_expiration_days = 3.75);
Haz clic en
Ejecutar.
Si deseas obtener información sobre cómo ejecutar consultas, visita Ejecuta una consulta interactiva.
bq
Para actualizar el tiempo de vencimiento predeterminado de un conjunto de datos, ingresa el comando bq update
con la marca --default_partition_expiration
. Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset
.
bq update \ --default_partition_expiration integer \ project_id:dataset
Reemplaza lo siguiente:
integer
: es la duración predeterminada (en segundos) para las particiones en tablas particionadas recién creadas. Esta marca no tiene un valor mínimo. Especifica0
para quitar el vencimiento existente. Todas las particiones de las tablas particionadas nuevas se borraráninteger
segundos después de la fecha de la partición en formato UTC. Este valor se aplica si no especificas un vencimiento para las particiones durante la creación de la tabla.project_id
: el ID de tu proyecto.dataset
: es el nombre del conjunto de datos que actualizas
Ejemplos:
Ingresa el siguiente comando a fin de establecer el vencimiento de partición predeterminado para las nuevas tablas particionadas creadas en mydataset
en 26 horas (93,600 segundos).
El conjunto de datos se encuentra en tu proyecto predeterminado.
bq update --default_partition_expiration 93600 mydataset
Ingresa el siguiente comando a fin de establecer el vencimiento de partición predeterminado para las nuevas tablas particionadas creadas en mydataset
en 26 horas (93,600 segundos).
El conjunto de datos se encuentra en myotherproject
, no en el proyecto predeterminado.
bq update --default_partition_expiration 93600 myotherproject:mydataset
API
Llama a datasets.patch
y actualiza la propiedad defaultPartitionExpirationMs
en el recurso de conjunto de datos.
El vencimiento se expresa en milisegundos. Debido a que el método datasets.update
reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch
.
Actualiza el modo de redondeo
Puedes actualizar el modo de redondeo predeterminado de una tabla mediante la declaración DDL ALTER SCHEMA SET OPTIONS
.
En el siguiente ejemplo, se actualiza el modo de redondeo predeterminado para mydataset
a ROUND_HALF_EVEN
:
ALTER SCHEMA mydataset SET OPTIONS ( default_rounding_mode = "ROUND_HALF_EVEN");
Esto establece el modo de redondeo predeterminado para las tablas nuevas creadas en el conjunto de datos. No afecta las columnas nuevas que se agregan a las tablas existentes. Configurar el modo de redondeo predeterminado en una tabla del conjunto de datos anula esta opción.
Actualiza los controles de acceso al conjunto de datos
El proceso para actualizar los controles de acceso a un conjunto de datos es muy similar al proceso para asignar controles de acceso a un conjunto de datos. No se pueden aplicar controles de acceso durante la creación del conjunto de datos con la consola de Google Cloud o la herramienta de línea de comandos de bq. Primero debes crear el conjunto de datos y, luego, actualizar los controles de acceso correspondientes. La API te permite actualizar los controles de acceso al conjunto de datos mediante una llamada al método datasets.patch.
Cuando actualizas los controles de acceso de un conjunto de datos, puedes modificar el acceso para las siguientes entidades:
Principales de IAM:
- Correo electrónico de Cuenta de Google: otorga acceso a una Cuenta de Google individual al conjunto de datos.
- Grupo de Google: Otorga a todos los miembros de un Grupo de Google acceso al conjunto de datos.
- Dominio de Google Workspace: Otorga a todos los usuarios y grupos de un dominio de Google acceso al conjunto de datos.
- Cuenta de servicio: Otorga a una cuenta de servicio acceso al conjunto de datos.
- Cualquiera: Ingresa
allUsers
para otorgar acceso al público general. - Todas las Cuentas de Google: Ingresa
allAuthenticatedUsers
para otorgar acceso a cualquier usuario que haya accedido a una Cuenta de Google.
Tipos de recursos:
- Conjuntos de datos autorizados: otorga acceso a un conjunto de datos autorizado al conjunto de datos.
- Vistas autorizadas: Otorga acceso de vista autorizada al conjunto de datos.
- Funciones autorizadas: otorga acceso a la función de UDF autorizada o función de tabla al conjunto de datos.
Para actualizar los controles de acceso en un conjunto de datos, haz lo siguiente:
Console
En el panel Explorador, expande tu proyecto y selecciona un conjunto de datos.
Expande la opción Acciones
y haz clic en Abrir.Haz clic en Compartir conjunto de datos.
Para borrar entradas existentes, en el cuadro de diálogo Compartir conjunto de datos, expande la entrada y haz clic en el ícono de borrar (papelera).
Para agregar entradas nuevas en el diálogo Compartir conjunto de datos, haz lo siguiente:
Ingresa la entidad en el cuadro Agregar principales.
En Seleccionar una función, elige una función de IAM adecuada de la lista. Para obtener más información sobre los permisos asignados a cada función predefinida de BigQuery, consulta la página Funciones y permisos predefinidos.
Haz clic en Agregar.
Para agregar una vista autorizada, haz clic en la pestaña Vista autorizada, ingresa el proyecto, el conjunto de datos y la vista, y haz clic en Agregar.
Cuando termines de agregar o borrar tus controles de acceso, haz clic en Listo.
bq
Escribe la información del conjunto de datos existente (incluidos los controles de acceso) en un archivo JSON mediante el comando
show
. Si el conjunto de datos está en un proyecto que no es tu proyecto predeterminado, agrega el ID del proyecto al nombre del conjunto de datos en el siguiente formato:project_id:dataset
.bq show \ --format=prettyjson \ project_id:dataset > path_to_file
Reemplaza lo siguiente:
project_id
: el ID de tu proyecto.dataset
: es el nombre de tu conjunto de datos.path_to_file
: es la ruta al archivo JSON en tu máquina local.
Ejemplos:
Ingresa el siguiente comando para escribir los controles de acceso de
mydataset
en un archivo JSON.mydataset
está en tu proyecto predeterminado.bq show --format=prettyjson mydataset > /tmp/mydataset.json
Ingresa el siguiente comando para escribir los controles de acceso de
mydataset
en un archivo JSON.mydataset
está enmyotherproject
.bq show --format=prettyjson \ myotherproject:mydataset > /tmp/mydataset.json
Realiza los cambios a la sección
"access"
del archivo JSON. Puedes agregar o quitar cualquiera de las entradasspecialGroup
:projectOwners
,projectWriters
,projectReaders
yallAuthenticatedUsers
. También puedes agregar, quitar o modificar cualquiera de los siguientes elementos:userByEmail
,groupByEmail
ydomain
.Por ejemplo, la sección de acceso del archivo JSON de un conjunto de datos se vería de la siguiente manera:
{ "access": [ { "role": "READER", "specialGroup": "projectReaders" }, { "role": "WRITER", "specialGroup": "projectWriters" }, { "role": "OWNER", "specialGroup": "projectOwners" } { "role": "READER", "specialGroup": "allAuthenticatedUsers" } { "role": "READER", "domain": "[DOMAIN_NAME]" } { "role": "WRITER", "userByEmail": "[USER_EMAIL]" } { "role": "READER", "groupByEmail": "[GROUP_EMAIL]" } ], }
Cuando tus ediciones estén completas, usa el comando
update
con la marca--source
para incluir el archivo JSON. Si el conjunto de datos está en un proyecto que no es tu proyecto predeterminado, agrega el ID del proyecto al nombre del conjunto de datos en el siguiente formato:project_id:dataset
.bq update --source path_to_file project_id:dataset
Reemplaza lo siguiente:
path_to_file
: es la ruta al archivo JSON en tu máquina local.project_id
: el ID de tu proyecto.dataset
: es el nombre de tu conjunto de datos.
Ejemplos:
Ingresa el siguiente comando a fin de actualizar los controles de acceso para
mydataset
.mydataset
está en tu proyecto predeterminado.bq update --source /tmp/mydataset.json mydataset
Ingresa el siguiente comando a fin de actualizar los controles de acceso para
mydataset
.mydataset
está enmyotherproject
.bq update --source /tmp/mydataset.json myotherproject:mydataset
Para verificar los cambios del control de acceso, ingresa otra vez el comando
show
sin escribir la información en un archivo.bq show --format=prettyjson dataset
o
bq show --format=prettyjson project_id:dataset
API
Llama a datasets.patch
y actualiza la propiedad access
en el recurso del conjunto de datos.
Debido a que el método datasets.update
reemplaza todo el recurso de conjunto de datos, es preferible usar el método datasets.patch
para actualizar los controles de acceso.
Go
Antes de probar este ejemplo, sigue las instrucciones de configuración para Go incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Java
Antes de probar este ejemplo, sigue las instrucciones de configuración para Java incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Java.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.Configura los controles de acceso con el método Dataset.Builder.setAcl().
Node.js
Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Node.js.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Python
Antes de probar este ejemplo, sigue las instrucciones de configuración para Python incluidas en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para bibliotecas cliente.
Establece la propiedad dataset.access_entries con los controles de acceso para un conjunto de datos. Luego, llama a la función client.update_dataset() para actualizar la propiedad.Actualiza los períodos de tiempo
Puedes actualizar el período de viaje en el tiempo de un conjunto de datos de las siguientes maneras:
- Usa la consola de Google Cloud
- Mediante la sentencia
ALTER SCHEMA SET OPTIONS
. - Usa el comando
bq update
de la herramienta de línea de comandos de bq. - Realiza una llamada al método de API
datasets.patch
odatasets.update
. El métodoupdate
reemplaza todo el recurso del conjunto de datos, mientras que el métodopatch
solo reemplaza los campos que se proporcionan en el recurso del conjunto de datos enviado.
Para obtener más información sobre el período de viaje en el tiempo, consulta Configura el período de viaje en el tiempo.
Para actualizar el período de viaje en el tiempo de un conjunto de datos, haz lo siguiente:
Consola
- En el panel Explorador, expande tu proyecto y selecciona un conjunto de datos.
- Expande la opción Acciones y haz clic en Abrir.
- En el panel Detalles, haz clic en Editar detalles.
- Expande Opciones avanzadas y, luego, selecciona el período de viaje en el tiempo que deseas usar.
- Haz clic en Guardar.
SQL
Usa la instrucción ALTER SCHEMA SET OPTIONS
con la opción max_time_travel_hours
para especificar el período de viaje cuando alteres un conjunto de datos. El valor max_time_travel_hours
debe ser un número entero expresado en múltiplos de 24 (48, 72, 96, 120, 144, 168) entre 48 (2 días) y 168 (7 días).
En la consola de Google Cloud, ve a la página de BigQuery.
En el editor de consultas, escribe la siguiente oración:
ALTER SCHEMA DATASET_NAME SET OPTIONS( max_time_travel_hours = HOURS);
Reemplaza lo siguiente:
DATASET_NAME
: es el nombre del conjunto de datos que actualizasHOURS
por la duración del período de viaje en horas.
Haz clic en
Ejecutar.
Si deseas obtener información sobre cómo ejecutar consultas, visita Ejecuta una consulta interactiva.
bq
Usa el comando bq update
con la marca --max_time_travel_hours
para especificar el período de viaje en el tiempo cuando alteres un conjunto de datos. El valor --max_time_travel_hours
debe ser un número entero expresado en múltiplos de 24 (48, 72, 96, 120, 144, 168) entre 48 (2 días) y 168 (7 días).
bq update \
--dataset=true --max_time_travel_hours=HOURS \
PROJECT_ID:DATASET_NAME
Reemplaza lo siguiente:
PROJECT_ID
: el ID de tu proyectoDATASET_NAME
: es el nombre del conjunto de datos que actualizasHOURS
por la duración del período de viaje en horas
API
Llama al método datasets.patch
o datasets.update
con un recurso de conjunto de datos definido en el que especificaste un valor para el campo maxTimeTravelHours
. El valor de maxTimeTravelHours
debe ser un número entero expresado en múltiplos de 24 (48, 72, 96, 120, 144, 168) entre 48 (2 días) y 168 (7 días).
Actualiza modelos de facturación de almacenamiento
Puedes modificar el modelo de facturación de almacenamiento de un conjunto de datos. Establece el valor storage_billing_model
en PHYSICAL
para usar bytes físicos cuando se calculan los cambios de almacenamiento, o en LOGICAL
para usar bytes lógicos. LOGICAL
es la configuración predeterminada.
Cuando cambias el modelo de facturación de un conjunto de datos, el cambio tarda 24 horas en aplicarse.
Una vez que cambies el modelo de facturación de almacenamiento de un conjunto de datos, debes esperar 14 días antes de poder volver a cambiar el modelo de facturación de almacenamiento.
Consola
- En el panel Explorador, expande tu proyecto y selecciona un conjunto de datos.
- Expande la opción Acciones y haz clic en Abrir.
- En el panel Detalles, haz clic en Editar detalles.
- Expande Opciones avanzadas y, luego, selecciona Habilitar el modelo de facturación de almacenamiento físico para usar la facturación de almacenamiento físico o anular la selección para usar la facturación de almacenamiento lógico.
- Haz clic en Guardar.
SQL
Para actualizar el modelo de facturación de un conjunto de datos, usa la sentencia ALTER SCHEMA SET OPTIONS
y establece la opción storage_billing_model
en:
En la consola de Google Cloud, ve a la página de BigQuery.
En el editor de consultas, escribe la siguiente oración:
ALTER SCHEMA DATASET_NAME SET OPTIONS( storage_billing_model = 'BILLING_MODEL');
Reemplaza lo siguiente:
DATASET_NAME
por el nombre del conjunto de datos que deseas modificarBILLING_MODEL
por el tipo de almacenamiento que deseas usar, ya seaLOGICAL
oPHYSICAL
Haz clic en
Ejecutar.
Si deseas obtener información sobre cómo ejecutar consultas, visita Ejecuta una consulta interactiva.
A fin de actualizar el modelo de facturación de almacenamiento para todos los conjuntos de datos en un proyecto, usa la siguiente consulta en SQL en cada región, en la que se encuentran los conjuntos de datos:
FOR record IN (SELECT CONCAT(catalog_name, '.', schema_name) AS dataset_path FROM PROJECT_ID.region-REGION.INFORMATION_SCHEMA.SCHEMATA) DO EXECUTE IMMEDIATE "ALTER SCHEMA `" || record.dataset_path || "` SET OPTIONS(storage_billing_model = 'BILLING_MODEL')"; END FOR;
Reemplaza lo siguiente:
PROJECT_ID
por el ID del proyecto.REGION
por un calificador de regiónBILLING_MODEL
por el tipo de almacenamiento que deseas usar, ya seaLOGICAL
oPHYSICAL
bq
Para actualizar el modelo de facturación de un conjunto de datos, usa el comando bq update
y establece la marca --storage_billing_model
:
bq update -d --storage_billing_model=BILLING_MODEL PROJECT_ID:DATASET_NAME
Reemplaza lo siguiente:
PROJECT_ID
: el ID de tu proyectoDATASET_NAME
: es el nombre del conjunto de datos que actualizasBILLING_MODEL
: el tipo de almacenamiento que deseas usar, ya seaLOGICAL
oPHYSICAL
API
Llama al método datasets.update
con un recurso de conjunto de datos definido en el que se configura el campo storageBillingModel
.
En el siguiente ejemplo, se muestra cómo llamar a datasets.update
con curl
:
curl -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" -L -X PUT https://bigquery.googleapis.com/bigquery/v2/projects/PROJECT_ID/datasets/DATASET_ID -d '{"datasetReference": {"projectId": "PROJECT_ID", "datasetId": "DATASET_NAME"}, "storageBillingModel": "BILLING_MODEL"}'
Reemplaza lo siguiente:
PROJECT_ID
: el ID de tu proyectoDATASET_NAME
: es el nombre del conjunto de datos que actualizasBILLING_MODEL
: el tipo de almacenamiento que deseas usar, ya seaLOGICAL
oPHYSICAL
Seguridad de los conjuntos de datos
Para controlar el acceso a los conjuntos de datos en BigQuery, consulta Controla el acceso a los conjuntos de datos. Para obtener información sobre la encriptación de datos, consulta Encriptación en reposo.
¿Qué sigue?
- Para obtener más información sobre la creación de conjuntos de datos, consulta Crea conjuntos de datos.
- Para obtener más información sobre la administración de conjuntos de datos, consulta Administra conjuntos de datos.