Actualiza las propiedades del conjunto de datos

En este documento, se describe cómo actualizar las propiedades de los conjuntos de datos en BigQuery. Después de crear un conjunto de datos, puedes actualizar las siguientes propiedades.

Permisos necesarios

Como mínimo, para actualizar las propiedades del conjunto de datos, debes tener los permisos bigquery.datasets.update y bigquery.datasets.get. Las siguientes funciones predefinidas de Cloud IAM incluyen los permisos bigquery.datasets.update y bigquery.datasets.get:

  • bigquery.dataOwner
  • bigquery.admin

Además, si un usuario tiene permisos bigquery.datasets.create, cuando crea un conjunto de datos, se le otorga el acceso bigquery.dataOwner. El acceso bigquery.dataOwner otorga a los usuarios la capacidad de actualizar las propiedades de los conjuntos de datos que crean.

Para obtener más información sobre las funciones y los permisos de Cloud IAM en BigQuery, consulta Control de acceso.

Actualiza las descripciones de los conjuntos de datos

Puedes actualizar la descripción de un conjunto de datos de las siguientes maneras:

  • Mediante Cloud Console o la IU web clásica de BigQuery
  • Mediante el comando bq update de la CLI
  • Mediante una llamada al método de la API datasets.patch
  • Con las bibliotecas cliente

Para actualizar la descripción de un conjunto de datos, haz lo siguiente:

Console

  1. Selecciona tu conjunto de datos en el panel Recursos (Resources).

  2. En la página Detalles (Details), haz clic en el ícono de lápiz junto a Descripción (Description) para editar el texto de la descripción.

    Configuración de consulta

  3. En el diálogo, ingresa una descripción en la casilla o edita la descripción existente. Haz clic en Actualizar (Update) para guardar el nuevo texto de la descripción.

IU clásica

  1. Selecciona tu conjunto de datos en el panel de navegación.

  2. En la página Dataset Details (Detalles del conjunto de datos), en la sección Description (Descripción), haz clic en Describe this dataset (Describir este conjunto de datos) para abrir la casilla de descripción si el conjunto de datos no tiene descripción. De lo contrario, haz clic en el texto de descripción existente.

  3. Ingresa una descripción en la casilla o edita la descripción existente. Cuando sales del cuadro, el texto se guarda.

    Descripción del conjunto de datos

CLI

Ejecuta el comando bq update con la marca --description. Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset.

bq update \
--description "string" \
project_id:dataset

Esta es una explicación de los parámetros del ejemplo anterior:

  • string es el texto que describe el conjunto de datos entre comillas.
  • project_id es el ID del proyecto.
  • dataset es el nombre del conjunto de datos que quieres actualizar.

Por ejemplo:

Ingresa el siguiente comando para cambiar la descripción de mydataset a “Description of mydataset”. mydataset está en tu proyecto predeterminado.

bq update --description "Description of mydataset" mydataset

Ingresa el siguiente comando para cambiar la descripción de mydataset a “Description of mydataset”. El conjunto de datos se encuentra en myotherproject, no en tu proyecto predeterminado.

bq update \
--description "Description of mydataset" \
myotherproject:mydataset

API

Llama a datasets.patch y actualiza la propiedad description en el recurso de conjunto de datos. Debido a que, con el método datasets.update, se reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch.

Go

Antes de probar este ejemplo, sigue las instrucciones de configuración de Go incluidas en la guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.

ds := client.Dataset(datasetID)
meta, err := ds.Metadata(ctx)
if err != nil {
	return err
}
update := bigquery.DatasetMetadataToUpdate{
	Description: "Updated Description.",
}
if _, err = ds.Update(ctx, update, meta.ETag); err != nil {
	return err
}

Java

Antes de probar este ejemplo, sigue las instrucciones de configuración de Java incluidas en la Guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Java de BigQuery.

Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.
Dataset oldDataset = bigquery.getDataset(datasetName);
DatasetInfo datasetInfo = oldDataset.toBuilder().setDescription(newDescription).build();
Dataset newDataset = bigquery.update(datasetInfo);

Node.js

Antes de probar esta muestra, sigue las instrucciones de configuración para Node.js que se encuentran en la Guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la Documentación de referencia de la API de BigQuery para Node.js.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function updateDatasetDescription() {
  // Updates a dataset's description.

  // Retreive current dataset metadata
  const dataset = bigquery.dataset(datasetId);
  const [metadata] = await dataset.getMetadata();

  // Set new dataset description
  const description = 'New dataset description.';
  metadata.description = description;

  const [apiResponse] = await dataset.setMetadata(metadata);
  const newDescription = apiResponse.description;

  console.log(`${datasetId} description: ${newDescription}`);
}

Python

Antes de probar este ejemplo, sigue las instrucciones de configuración de Python incluidas en la Guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.

Configura la propiedad Dataset.description y llama a Client.update_dataset() para enviar la actualización a la API.
from google.cloud import bigquery

# TODO(developer): Construct a BigQuery client object.
# client = bigquery.Client()

# TODO(developer): Set dataset_id to the ID of the dataset to fetch.
# dataset_id = 'your-project.your_dataset'

dataset = client.get_dataset(dataset_id)
dataset.description = "Updated description."
dataset = client.update_dataset(dataset, ["description"])

full_dataset_id = "{}.{}".format(dataset.project, dataset.dataset_id)
print(
    "Updated dataset '{}' with description '{}'.".format(
        full_dataset_id, dataset.description
    )
)

Cómo actualizar los tiempos de caducidad predeterminados de la tabla

Puedes actualizar la fecha y hora de vencimiento predeterminada de las tablas de un conjunto de datos de las siguientes maneras:

  • Mediante Cloud Console o la IU web clásica de BigQuery
  • Mediante el comando bq update de la CLI
  • Mediante una llamada al método de la API datasets.patch
  • Con las bibliotecas cliente

Puedes determinar una fecha de vencimiento de la tabla predeterminada a nivel de conjunto de datos o puedes configurarla cuando se crea la tabla. Si configuras la caducidad cuando creas la tabla, se ignora la caducidad predeterminada de la tabla del conjunto de datos. Si no configuras una caducidad predeterminada para la tabla a nivel de conjunto de datos ni una caducidad para la tabla cuando la creas, la tabla nunca caducará y deberás borrarla de forma manual.

Ten en cuenta lo siguiente cuando actualizas la configuración predeterminada de caducidad de la tabla de un conjunto de datos:

  • Si cambias el valor de Never a un tiempo de caducidad definido, cualquier tabla que ya exista en el conjunto de datos no caducará a menos que se haya configurado el tiempo de caducidad en la tabla cuando se creó.
  • Si cambias el valor de la caducidad predeterminada de la tabla, cualquier tabla que ya exista caducará según la configuración de caducidad de la tabla original. A todas las tablas nuevas creadas en el conjunto de datos se les aplica la nueva configuración de caducidad de la tabla, a menos que especifiques una caducidad diferente en la tabla cuando la creas.

El valor para la caducidad predeterminada de la tabla se expresa de manera diferente según dónde se configure el valor. Usa el método que te dé el nivel de detalle adecuado:

  • En Cloud Console y la IU web clásica de BigQuery, la caducidad se expresa en días.
  • En la herramienta de línea de comandos, la caducidad se expresa en segundos.
  • En la API, la caducidad se expresa en milisegundos.

Si deseas actualizar el tiempo de caducidad predeterminado para un conjunto de datos, haz lo siguiente:

Console

  1. Selecciona tu conjunto de datos en el panel Recursos (Resources).

  2. En la página Detalles (Details), haz clic en el ícono de lápiz junto a Información del conjunto de datos (Dataset info) para editar el vencimiento.

  3. En la sección Vencimiento predeterminado de la tabla (Default table expiration) del diálogo Información del conjunto de datos (Dataset info), ingresa un valor para Cantidad de días después de la creación de la tabla (Number of days after table creation).

  4. Haz clic en Guardar.

IU clásica

  1. Selecciona tu conjunto de datos en el panel de navegación.

  2. En la página Dataset Details (Detalles del conjunto de datos), en la sección Description (Descripción) a la derecha de Default Table Expiration (Caducidad predeterminada de la tabla), haz clic en Edit (Editar).

    Vencimiento de la tabla

  3. En el diálogo Actualizar caducidad, para Caducidad de los datos, haz clic en En y, luego, ingresa el tiempo de caducidad en días. El valor predeterminado es Nunca.

CLI

Para actualizar la fecha de caducidad predeterminada de las tablas recién creadas en un conjunto de datos, ingresa el comando bq update con la marca --default_table_expiration. Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset.

bq update \
--default_table_expiration integer \
project_id:dataset

Esta es una explicación de los parámetros del ejemplo anterior:

  • integer es el tiempo de vida predeterminado (en segundos) para las tablas recién creadas. El valor mínimo es 3,600 segundos (una hora). La hora de vencimiento se evalúa según la hora UTC actual más el número entero. Especifica 0 para quitar la fecha y hora de vencimiento existente. Cualquier tabla que se cree en el conjunto de datos se borrará al cabo de integer segundos desde el momento de su creación. Este valor se aplica si no especificas un vencimiento cuando creas la tabla.
  • project_id es el ID del proyecto.
  • dataset es el nombre del conjunto de datos que quieres actualizar.

Por ejemplo:

Ingresa el siguiente comando a fin de establecer la fecha de caducidad predeterminada para las tablas nuevas creadas en mydataset como dos horas (7,200 segundos) a partir de la hora actual. El conjunto de datos se encuentra en tu proyecto predeterminado.

bq update --default_table_expiration 7200 mydataset

Ingresa el siguiente comando a fin de establecer la fecha de caducidad predeterminada para las tablas nuevas creadas en mydataset como dos horas (7,200 segundos) a partir de la hora actual. El conjunto de datos se encuentra en myotherproject, no en tu proyecto predeterminado.

bq update --default_table_expiration 7200 myotherproject:mydataset

API

Llama a datasets.patch y actualiza la propiedad defaultTableExpirationMs en el recurso de conjunto de datos. La caducidad se expresa en milisegundos en la API. Debido a que, con el método datasets.update, se reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch.

Go

Antes de probar este ejemplo, sigue las instrucciones de configuración de Go incluidas en la guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.

ds := client.Dataset(datasetID)
meta, err := ds.Metadata(ctx)
if err != nil {
	return err
}
update := bigquery.DatasetMetadataToUpdate{
	DefaultTableExpiration: 24 * time.Hour,
}
if _, err := client.Dataset(datasetID).Update(ctx, update, meta.ETag); err != nil {
	return err
}

Java

Antes de probar este ejemplo, sigue las instrucciones de configuración de Java incluidas en la guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Java de BigQuery.

Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.

Configura el tiempo de caducidad predeterminado con el método Dataset.Builder.setDefaultTableLifetime().

Long beforeExpiration = dataset.getDefaultTableLifetime();

Long oneDayMilliseconds = 24 * 60 * 60 * 1000L;
DatasetInfo.Builder builder = dataset.toBuilder();
builder.setDefaultTableLifetime(oneDayMilliseconds);
bigquery.update(builder.build());  // API request.

Node.js

Antes de probar esta muestra, sigue las instrucciones de configuración para Node.js que se encuentran en la Guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la Documentación de referencia de la API de BigQuery para Node.js.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function updateDatasetExpiration() {
  // Updates the lifetime of all tables in the dataset, in milliseconds.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = "my_dataset";

  // Retreive current dataset metadata
  const dataset = bigquery.dataset(datasetId);
  const [metadata] = await dataset.getMetadata();

  // Set new dataset metadata
  const expirationTime = 24 * 60 * 60 * 1000;
  metadata.defaultTableExpirationMs = expirationTime.toString();

  const [apiResponse] = await dataset.setMetadata(metadata);
  const newExpirationTime = apiResponse.defaultTableExpirationMs;

  console.log(`${datasetId} expiration: ${newExpirationTime}`);
}

Python

Antes de probar este ejemplo, sigue las instrucciones de configuración de Python incluidas en la Guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.

Configura la propiedad Dataset.default_table_expiration_ms y llama a Client.update_dataset() para enviar la actualización a la API.
from google.cloud import bigquery

# TODO(developer): Construct a BigQuery client object.
# client = bigquery.Client()

# TODO(developer): Set dataset_id to the ID of the dataset to fetch.
# dataset_id = 'your-project.your_dataset'

dataset = client.get_dataset(dataset_id)
dataset.default_table_expiration_ms = 24 * 60 * 60 * 1000  # in milliseconds

dataset = client.update_dataset(
    dataset, ["default_table_expiration_ms"]
)  # API request

full_dataset_id = "{}.{}".format(dataset.project, dataset.dataset_id)
print(
    "Updated dataset {} with new expiration {}".format(
        full_dataset_id, dataset.default_table_expiration_ms
    )
)

Cómo actualizar los tiempos de caducidad predeterminados de la partición

Puedes actualizar la fecha y hora de vencimiento predeterminadas de las particiones de un conjunto de datos de las siguientes maneras:

  • Mediante el comando bq update de la CLI
  • Mediante una llamada al método de la API datasets.patch
  • Con las bibliotecas cliente

En la actualidad, ni Cloud Console ni la IU web clásica de BigQuery permiten configurar o actualizar el vencimiento predeterminado de las particiones de un conjunto de datos.

Puedes configurar una fecha y hora de vencimiento predeterminada para las particiones al nivel de conjunto de datos, que se aplicarán a todas las tablas particionadas nuevas, o puedes configurar un vencimiento de partición para tablas individuales en el momento en que se crean. Si configuras la caducidad predeterminada de la partición a nivel de conjunto de datos y configuras la caducidad predeterminada de la tabla a nivel de conjunto de datos, las nuevas tablas particionadas solo tendrán una caducidad de partición. Si se configuran ambas opciones, la caducidad predeterminada de la partición anula la caducidad predeterminada de la tabla.

Si configuras el vencimiento de la partición cuando se crea la tabla particionada, ese valor anula el vencimiento de partición predeterminado al nivel de conjunto de datos, si existe alguno.

Si no configuras una caducidad predeterminada para la partición a nivel de conjunto de datos ni una caducidad destinada a la partición cuando creas la tabla, las particiones nunca caducarán y deberás borrarlas de forma manual.

Cuando configuras una caducidad predeterminada para la partición en un conjunto de datos, la caducidad se aplica a todas las particiones en todas las tablas particionadas creadas en el conjunto de datos. Cuando configuras la caducidad de la partición en una tabla, la caducidad se aplica a todas las particiones creadas en la tabla especificada. En la actualidad, no puedes aplicar diferentes tiempos de caducidad a distintas particiones en la misma tabla.

Ten en cuenta lo siguiente cuando actualizas la configuración predeterminada de caducidad de la partición de un conjunto de datos:

  • Si cambias el valor de “never” a un vencimiento definido, cualquier partición que ya exista en las tablas particionadas del conjunto de datos no se vencerá, a menos que se haya configurado el vencimiento de partición en la tabla durante su creación.
  • Si cambias el valor para la caducidad predeterminada de la partición, cualquier partición en las tablas particionadas existentes caducará según la caducidad predeterminada de la partición original. Todas las tablas particionadas nuevas creadas en el conjunto de datos tienen la nueva configuración de caducidad de partición predeterminada, a menos que especifiques una caducidad diferente para la partición en la tabla cuando la creas.

El valor para la caducidad predeterminada de la partición se expresa de manera diferente según dónde se configura el valor. Usa el método que te dé el nivel de detalle adecuado:

  • En la herramienta de línea de comandos, la caducidad se expresa en segundos.
  • En la API, la caducidad se expresa en milisegundos.

Para actualizar el tiempo de caducidad predeterminado de una partición en un conjunto de datos, haz lo siguiente:

Console

En la actualidad, Cloud Console no permite actualizar el vencimiento predeterminado de las particiones de un conjunto de datos.

IU clásica

En la actualidad, la IU web clásica de BigQuery no permite actualizar el vencimiento predeterminado de las particiones de un conjunto de datos.

CLI

Para actualizar el tiempo de caducidad predeterminado de un conjunto de datos, ingresa el comando bq update con la marca --default_partition_expiration. Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset.

bq update \
--default_partition_expiration integer \
project_id:dataset

Esta es una explicación de los parámetros del ejemplo anterior:

  • integer es el tiempo de vida predeterminado (en segundos) para las particiones en tablas particionadas recién creadas. Esta marca no tiene valor mínimo. Especifica 0 para quitar la fecha y hora de vencimiento existente. Todas las particiones de las tablas particionadas nuevas se borrarán al cabo de [INTEGER] segundos después de la fecha de la partición en formato UTC. Este valor se aplica si no especificas un vencimiento para las particiones durante la creación de la tabla.
  • project_id es el ID del proyecto.
  • dataset es el nombre del conjunto de datos que quieres actualizar.

Por ejemplo:

Ingresa el siguiente comando a fin de establecer el vencimiento de partición predeterminado para las nuevas tablas particionadas creadas en mydataset en 26 horas (93,600 segundos). El conjunto de datos se encuentra en tu proyecto predeterminado.

bq update --default_partition_expiration 93600 mydataset

Ingresa el siguiente comando a fin de establecer el vencimiento de partición predeterminado para las nuevas tablas particionadas creadas en mydataset en 26 horas (93,600 segundos). El conjunto de datos se encuentra en myotherproject, no en tu proyecto predeterminado.

bq update --default_partition_expiration 93600 myotherproject:mydataset

API

Llama a datasets.patch y actualiza la propiedad defaultPartitionExpirationMs en el recurso de conjunto de datos. El vencimiento se expresa en milisegundos. Debido a que, con el método datasets.update, se reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch.

Actualiza los controles de acceso al conjunto de datos

El proceso para actualizar los controles de acceso a un conjunto de datos es muy similar al proceso con el que se asignan controles de acceso a un conjunto de datos. No se pueden aplicar controles de acceso durante la creación del conjunto de datos con Cloud Console, la IU web clásica de BigQuery o la herramienta de línea de comandos. Primero debes crear el conjunto de datos y, luego, actualizar los controles de acceso correspondientes. La API te permite actualizar los controles de acceso del conjunto de datos mediante una llamada al método datasets.patch.

Cuando actualizas los controles de acceso de un conjunto de datos, puedes modificar el acceso para las siguientes entidades:

  • Correo electrónico de Cuenta de Google: otorga a una Cuenta de Google individual acceso al conjunto de datos.
  • Grupo de Google: otorga a todos los miembros de un Grupo de Google acceso al conjunto de datos.
  • Dominio de Google Apps: otorga a todos los usuarios y grupos de un dominio de Google acceso al conjunto de datos
  • Cuenta de servicio: otorga a una cuenta de servicio acceso al conjunto de datos.
  • Cualquiera: ingresa “allUsers” para otorgar acceso al público general.
  • Todas las Cuentas de Google: ingresa “allAuthenticatedUsers” para otorgar acceso a cualquier usuario que haya accedido a una Cuenta de Google.
  • Vistas autorizadas: otorga acceso de vista autorizada al conjunto de datos.

Para actualizar los controles de acceso en un conjunto de datos, haz lo siguiente:

Console

  1. En la sección Recursos del panel de navegación, haz clic en tu conjunto de datos.

  2. Haz clic en Compartir conjunto de datos.

  3. Para borrar entradas existentes, en el cuadro de diálogo Compartir conjunto de datos, expande la entrada y haz clic en el ícono de borrar (papelera).

  4. Para agregar entradas nuevas en el diálogo Compartir conjunto de datos, haz lo siguiente:

    1. Ingresa la entidad en el cuadro Agregar miembros.

    2. En Seleccionar una función, elige una función de Cloud IAM adecuada de la lista. Para obtener más información sobre los permisos asignados a cada función predefinida de BigQuery, consulta la página de funciones y permisos predefinidos.

    3. Haz clic en Agregar.

  5. Para agregar una vista autorizada, haz clic en la pestaña Vista autorizada, ingresa el proyecto, el conjunto de datos y la vista, y haz clic en Agregar.

  6. Cuando termines de agregar o borrar tus controles de acceso, haz clic en Listo.

IU clásica

  1. Haz clic en la flecha desplegable a la derecha del conjunto de datos y elige Compartir conjunto de datos.

  2. Para modificar las entradas existente en el cuadro de diálogo Compartir conjunto de datos, haz lo siguiente:

    • Quita las entradas existentes mediante un clic en el ícono X a la derecha de la entidad.
    • Para cambiar los permisos de una entidad, haz clic en el botón de permisos y elige un nivel de acceso adecuado: Is owner (OWNER), Can edit (WRITER) o Can view (READER). Para obtener más información sobre las funciones a nivel del conjunto de datos, consulta los permisos y las funciones básicas.
  3. Para agregar entradas nuevas en el diálogo Compartir conjunto de datos, haz lo siguiente:

    1. Haz clic en el menú desplegable a la izquierda del campo Agregar personas (Add People) y selecciona la opción correspondiente.

    2. Escribe un valor en el cuadro de texto. Por ejemplo, si seleccionaste Usuario por correo electrónico, escribe la dirección de correo electrónico del usuario.

    3. A la derecha del campo Agregar personas (Add People), haz clic Puede ver y elige la función adecuada de la lista.

      Agrega personas a un conjunto de datos

    4. Haz clic en Agregar.

  4. Cuando termines de agregar, borrar o modificar tus controles de acceso, haz clic en Guardar cambios.

  5. Haz clic en la flecha desplegable a la derecha del conjunto de datos y selecciona Compartir conjunto de datos para verificar tus controles de acceso. Puedes confirmar la configuración en el cuadro de diálogo Compartir conjunto de datos.

CLI

  1. Escribe la información del conjunto de datos existente (incluidos los controles de acceso) en un archivo JSON con el comando show. Si el conjunto de datos está en un proyecto que no es tu proyecto predeterminado, agrega el ID del proyecto al nombre del conjunto de datos en el siguiente formato: project_id:dataset.

    bq show \
    --format=prettyjson \
    project_id:dataset > path_to_file
    

    Esta es una explicación de los parámetros del ejemplo anterior:

    • project_id es el ID del proyecto.
    • dataset es el nombre de tu conjunto de datos.
    • path_to_file es la ruta al archivo JSON en tu máquina local.

    Por ejemplo:

    Ingresa el siguiente comando para escribir los controles de acceso de mydataset en un archivo JSON. mydataset está en tu proyecto predeterminado.

    bq show --format=prettyjson mydataset > /tmp/mydataset.json
    

    Ingresa el siguiente comando para escribir los controles de acceso de mydataset en un archivo JSON. mydataset está en myotherproject.

    bq show --format=prettyjson \
    myotherproject:mydataset > /tmp/mydataset.json
    
  2. Realiza los cambios a la sección "access" del archivo JSON. Puedes agregar o quitar cualquiera de las entradas specialGroup: projectOwners, projectWriters, projectReaders y allAuthenticatedUsers. También puedes agregar, quitar o modificar cualquiera de los siguientes elementos: userByEmail, groupByEmail, and domain.

    Por ejemplo, la sección de acceso del archivo JSON de un conjunto de datos se vería de la manera siguiente:

    {
     "access": [
      {
       "role": "READER",
       "specialGroup": "projectReaders"
      },
      {
       "role": "WRITER",
       "specialGroup": "projectWriters"
      },
      {
       "role": "OWNER",
       "specialGroup": "projectOwners"
      }
      {
       "role": "READER",
       "specialGroup": "allAuthenticatedUsers"
      }
      {
       "role": "READER",
       "domain": "[DOMAIN_NAME]"
      }
      {
       "role": "WRITER",
       "userByEmail": "[USER_EMAIL]"
      }
      {
       "role": "READER",
       "groupByEmail": "[GROUP_EMAIL]"
      }
     ],
    }
    

  3. Cuando tus ediciones estén completas, usa el comando update con la marca --source para incluir el archivo JSON. Si el conjunto de datos está en un proyecto que no es tu proyecto predeterminado, agrega el ID del proyecto al nombre del conjunto de datos en el siguiente formato: project_id:dataset.

    bq update --source path_to_file project_id:dataset
    

    Esta es una explicación de los parámetros del ejemplo anterior:

    • path_to_file es la ruta al archivo JSON en tu máquina local.
    • project_id es el ID del proyecto.
    • dataset es el nombre de tu conjunto de datos.

    Por ejemplo:

    Ingresa el siguiente comando a fin de actualizar los controles de acceso para mydataset. mydataset está en tu proyecto predeterminado.

    bq update --source /tmp/mydataset.json mydataset
    

    Ingresa el siguiente comando a fin de actualizar los controles de acceso para mydataset. mydataset está en myotherproject.

    bq update --source /tmp/mydataset.json myotherproject:mydataset
    
  4. Para verificar los cambios del control de acceso, ingresa otra vez el comando show sin escribir la información en un archivo.

    bq show --format=prettyjson dataset
    

    o

    bq show --format=prettyjson project_id:dataset
    

API

Llama a datasets.patch y actualiza la propiedad access en el recurso de conjunto de datos.

Debido a que el método datasets.update reemplaza todo el recurso de conjunto de datos, es preferible usar el método datasets.patch para actualizar los controles de acceso.

Go

Antes de probar este ejemplo, sigue las instrucciones de configuración de Go incluidas en la guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.

ds := client.Dataset(datasetID)
meta, err := ds.Metadata(ctx)
if err != nil {
	return err
}
// Append a new access control entry to the existing access list.
update := bigquery.DatasetMetadataToUpdate{
	Access: append(meta.Access, &bigquery.AccessEntry{
		Role:       bigquery.ReaderRole,
		EntityType: bigquery.UserEmailEntity,
		Entity:     "sample.bigquery.dev@gmail.com"},
	),
}

// Leverage the ETag for the update to assert there's been no modifications to the
// dataset since the metadata was originally read.
if _, err := ds.Update(ctx, update, meta.ETag); err != nil {
	return err
}

Java

Antes de probar este ejemplo, sigue las instrucciones de configuración de Java incluidas en la Guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Java de BigQuery.

Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.

Configura los controles de acceso con el método Dataset.Builder.setAcl().

List<Acl> beforeAcls = dataset.getAcl();

// Make a copy of the ACLs so that they can be modified.
ArrayList<Acl> acls = new ArrayList<>(beforeAcls);
acls.add(Acl.of(new Acl.User("sample.bigquery.dev@gmail.com"), Acl.Role.READER));
DatasetInfo.Builder builder = dataset.toBuilder();
builder.setAcl(acls);

bigquery.update(builder.build());  // API request.

Node.js

Antes de probar esta muestra, sigue las instrucciones de configuración para Node.js que se encuentran en la Guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la Documentación de referencia de la API de BigQuery para Node.js.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function updateDatasetAccess() {
  // Updates a datasets's access controls.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = "my_dataset";

  // Create new role metadata
  const newRole = {
    role: 'READER',
    entity_type: 'userByEmail',
    userByEmail: 'sample.bigquery.dev@gmail.com',
  };

  // Retreive current dataset metadata
  const dataset = bigquery.dataset(datasetId);
  const [metadata] = await dataset.getMetadata();

  // Add new role to role acess array
  metadata.access.push(newRole);
  const [apiResponse] = await dataset.setMetadata(metadata);
  const newAccessRoles = apiResponse.access;
  newAccessRoles.forEach(role => console.log(role));
}

Python

Antes de probar este ejemplo, sigue las instrucciones de configuración de Python incluidas en la Guía de inicio rápido de BigQuery con bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.

Establece la propiedad dataset.access_entries con los controles de acceso para un conjunto de datos. Luego, llama a la función client.update_dataset() para actualizar la propiedad.
from google.cloud import bigquery

# TODO(developer): Construct a BigQuery client object.
# client = bigquery.Client()

# TODO(developer): Set dataset_id to the ID of the dataset to fetch.
# dataset_id = 'your-project.your_dataset'

dataset = client.get_dataset(dataset_id)

entry = bigquery.AccessEntry(
    role="READER",
    entity_type="userByEmail",
    entity_id="sample.bigquery.dev@gmail.com",
)

entries = list(dataset.access_entries)
entries.append(entry)
dataset.access_entries = entries

dataset = client.update_dataset(dataset, ["access_entries"])  # API request

full_dataset_id = "{}.{}".format(dataset.project, dataset.dataset_id)
print(
    "Updated dataset '{}' with modified user permissions.".format(full_dataset_id)
)

Pasos siguientes

¿Te ha resultado útil esta página? Enviar comentarios:

Enviar comentarios sobre...

Si necesitas ayuda, visita nuestra página de asistencia.