Actualiza las propiedades del conjunto de datos

En este documento, se describe cómo actualizar las propiedades de los conjuntos de datos en BigQuery. Después de crear un conjunto de datos, puedes actualizar las siguientes propiedades.

Permisos necesarios

Como mínimo, para actualizar las propiedades del conjunto de datos, debes tener los permisos bigquery.datasets.update y bigquery.datasets.get. En las siguientes funciones predefinidas de IAM, se incluyen los permisos bigquery.datasets.update y bigquery.datasets.get:

  • bigquery.dataOwner
  • bigquery.admin

Además, si un usuario tiene permisos bigquery.datasets.create, se le otorga el acceso bigquery.dataOwner cuando crea un conjunto de datos. El acceso bigquery.dataOwner otorga a los usuarios la capacidad de actualizar las propiedades de los conjuntos de datos que crean.

Para obtener más información sobre las funciones y los permisos de IAM en BigQuery, consulta Control de acceso.

Actualiza las descripciones de los conjuntos de datos

Puedes actualizar la descripción de un conjunto de datos de las siguientes maneras:

  • Con Cloud Console o la IU web clásica de BigQuery
  • Mediante el comando bq update de la herramienta de línea de comandos de bq
  • Con una llamada al método datasets.patch de la API
  • Con las bibliotecas cliente

Para actualizar la descripción de un conjunto de datos, haz lo siguiente:

Console

  1. Selecciona tu conjunto de datos en el panel Recursos (Resources).

  2. En la página Details (Detalles), haz clic en el ícono de lápiz junto a Description (Descripción) para editar el texto de la descripción.

    Configuración de consulta

  3. En el diálogo, ingresa una descripción en la casilla o edita la descripción existente. Haz clic en Actualizar (Update) para guardar el nuevo texto de la descripción.

IU clásica

  1. Selecciona tu conjunto de datos en el panel de navegación.

  2. En la página Dataset Details (Detalles del conjunto de datos), en la sección Description (Descripción), haz clic en Describe this dataset (Describir este conjunto de datos) para abrir la casilla de descripción si el conjunto de datos no tiene descripción. De lo contrario, haz clic en el texto de descripción existente.

  3. Ingresa una descripción en la casilla o edita la descripción existente. Cuando sales del cuadro, el texto se guarda.

    Descripción del conjunto de datos.

bq

Ejecuta el comando bq update con la marca --description. Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset.

bq update \
--description "string" \
project_id:dataset

Reemplaza lo siguiente:

  • string: es el texto que describe el conjunto de datos entre comillas
  • project_id: es el ID de tu proyecto.
  • dataset: es el nombre del conjunto de datos que estás actualizando

Ejemplos:

Ingresa el siguiente comando para cambiar la descripción de mydataset a “Description of mydataset”. mydataset está en tu proyecto predeterminado.

bq update --description "Description of mydataset" mydataset

Ingresa el siguiente comando para cambiar la descripción de mydataset a “Description of mydataset”. El conjunto de datos se encuentra en myotherproject, no en el proyecto predeterminado.

bq update \
--description "Description of mydataset" \
myotherproject:mydataset

API

Llama a datasets.patch y actualiza la propiedad description en el recurso de conjunto de datos. Debido a que el método datasets.update reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch.

Go

Antes de probar este ejemplo, sigue las instrucciones de configuración para Go que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// updateDatasetDescription demonstrates how the Description metadata of a dataset can
// be read and modified.
func updateDatasetDescription(projectID, datasetID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	ds := client.Dataset(datasetID)
	meta, err := ds.Metadata(ctx)
	if err != nil {
		return err
	}
	update := bigquery.DatasetMetadataToUpdate{
		Description: "Updated Description.",
	}
	if _, err = ds.Update(ctx, update, meta.ETag); err != nil {
		return err
	}
	return nil
}

Java

Antes de probar este ejemplo, sigue las instrucciones de configuración para Java que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Java.

Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.
import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.Dataset;

public class UpdateDatasetDescription {

  public static void runUpdateDatasetDescription() {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    String newDescription = "this is the new dataset description";
    updateDatasetDescription(datasetName, newDescription);
  }

  public static void updateDatasetDescription(String datasetName, String newDescription) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      Dataset dataset = bigquery.getDataset(datasetName);
      bigquery.update(dataset.toBuilder().setDescription(newDescription).build());
      System.out.println("Dataset description updated successfully to " + newDescription);
    } catch (BigQueryException e) {
      System.out.println("Dataset description was not updated \n" + e.toString());
    }
  }
}

Node.js

Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Node.js.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function updateDatasetDescription() {
  // Updates a dataset's description.

  // Retreive current dataset metadata
  const dataset = bigquery.dataset(datasetId);
  const [metadata] = await dataset.getMetadata();

  // Set new dataset description
  const description = 'New dataset description.';
  metadata.description = description;

  const [apiResponse] = await dataset.setMetadata(metadata);
  const newDescription = apiResponse.description;

  console.log(`${datasetId} description: ${newDescription}`);
}

Python

Antes de probar esta muestra, sigue las instrucciones de configuración para Python incluidas en la Guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.

Configura la propiedad Dataset.description y llama a Client.update_dataset() para enviar la actualización a la API.

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set dataset_id to the ID of the dataset to fetch.
# dataset_id = 'your-project.your_dataset'

dataset = client.get_dataset(dataset_id)  # Make an API request.
dataset.description = "Updated description."
dataset = client.update_dataset(dataset, ["description"])  # Make an API request.

full_dataset_id = "{}.{}".format(dataset.project, dataset.dataset_id)
print(
    "Updated dataset '{}' with description '{}'.".format(
        full_dataset_id, dataset.description
    )
)

Actualiza el vencimiento predeterminado de las tablas

Puedes actualizar la fecha y hora de vencimiento predeterminada de las tablas de un conjunto de datos de las siguientes maneras:

  • Con Cloud Console o la IU web clásica de BigQuery
  • Mediante el comando bq update de la herramienta de línea de comandos de bq
  • Con una llamada al método datasets.patch de la API
  • Con las bibliotecas cliente

Puedes establecer un tiempo de vencimiento predeterminado para las tablas a nivel del conjunto de datos o puedes definirlo cuando creas una tabla. Si estableces el vencimiento cuando creas la tabla, se anula la configuración predeterminada. Si no defines un tiempo de vencimiento predeterminado para las tablas a nivel del conjunto de datos ni lo haces cuando creas una tabla, la tabla nunca vencerá y deberás borrarla manualmente.

Ten en cuenta lo siguiente cuando actualizas la configuración predeterminada del vencimiento de las tablas de un conjunto de datos:

  • Si cambias el valor de Never a un tiempo de vencimiento específico, cualquier tabla que ya exista en el conjunto de datos no vencerá a menos que se haya configurado el tiempo de vencimiento en la tabla cuando se creó.
  • Si cambias el valor del vencimiento predeterminado para las tablas, cualquier tabla que ya exista vencerá según la configuración original. Se aplicará la nueva configuración de vencimiento de tablas a todas las tablas nuevas que se creen en el conjunto de datos, a menos que especifiques un vencimiento distinto durante la creación.

El valor del vencimiento predeterminado de tablas se expresa de manera diferente según dónde se configure el valor. Usa el método que te dé el nivel de detalle adecuado:

  • En Cloud Console y la IU web clásica de BigQuery, la caducidad se expresa en días.
  • En la herramienta de línea de comandos de bq, el vencimiento se expresa en segundos.
  • En la API, la caducidad se expresa en milisegundos.

Para actualizar el tiempo de vencimiento predeterminado de un conjunto de datos, haz lo siguiente:

Console

  1. Selecciona el conjunto de datos en el panel Recursos.

  2. En la página Detalles (Details), haz clic en el ícono de lápiz junto a Información del conjunto de datos (Dataset info) para editar el vencimiento.

  3. En la sección Vencimiento predeterminado de la tabla (Default table expiration) del diálogo Información del conjunto de datos (Dataset info), ingresa un valor para Cantidad de días después de la creación de la tabla (Number of days after table creation).

  4. Haz clic en Guardar (Save).

IU clásica

  1. Selecciona tu conjunto de datos en el panel de navegación.

  2. En la página Dataset Details, en la sección Descripción (Description) a la derecha de Vencimiento predeterminado de la tabla (Default Table Expiration), haz clic en Editar (Edit).

    Vencimiento de la tabla.

  3. En el diálogo Actualizar caducidad, para Vencimiento de los datos, haz clic en En y, luego, ingresa el tiempo de vencimiento en días. El valor predeterminado es Nunca (Never).

bq

Para actualizar el tiempo de vencimiento predeterminado de las tablas recién creadas en un conjunto de datos, ingresa el comando bq update con la marca --default_table_expiration. Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset.

bq update \
--default_table_expiration integer \
project_id:dataset

Reemplaza lo siguiente:

  • integer: la duración predeterminada, en segundos, de las tablas recién creadas. El valor mínimo es 3,600 segundos (una hora). La hora de vencimiento se evalúa según la hora UTC actual más el número entero. Especifica 0 para quitar el vencimiento existente. Cualquier tabla creada en el conjunto de datos se borra después de integer segundos a partir de su hora de creación. Este valor se aplica si no estableces el vencimiento de la tabla cuando la creas.
  • project_id: Es el ID de tu proyecto.
  • dataset: es el nombre del conjunto de datos que estás actualizando

Ejemplos:

Ingresa el siguiente comando a fin de establecer la fecha de caducidad predeterminada para las tablas nuevas creadas en mydataset como dos horas (7,200 segundos) a partir de la hora actual. El conjunto de datos se encuentra en tu proyecto predeterminado.

bq update --default_table_expiration 7200 mydataset

Ingresa el siguiente comando a fin de establecer la fecha de caducidad predeterminada para las tablas nuevas creadas en mydataset como dos horas (7,200 segundos) a partir de la hora actual. El conjunto de datos se encuentra en myotherproject, no en el proyecto predeterminado.

bq update --default_table_expiration 7200 myotherproject:mydataset

API

Llama a datasets.patch y actualiza la propiedad defaultTableExpirationMs en el recurso de conjunto de datos. La caducidad se expresa en milisegundos en la API. Debido a que el método datasets.update reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch.

Go

Antes de probar este ejemplo, sigue las instrucciones de configuración para Go que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.

import (
	"context"
	"fmt"
	"time"

	"cloud.google.com/go/bigquery"
)

// updateDatasetDefaultExpiration demonstrats setting the default expiration of a dataset
// to a specific retention period.
func updateDatasetDefaultExpiration(projectID, datasetID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	ds := client.Dataset(datasetID)
	meta, err := ds.Metadata(ctx)
	if err != nil {
		return err
	}
	update := bigquery.DatasetMetadataToUpdate{
		DefaultTableExpiration: 24 * time.Hour,
	}
	if _, err := client.Dataset(datasetID).Update(ctx, update, meta.ETag); err != nil {
		return err
	}
	return nil
}

Java

Antes de probar este ejemplo, sigue las instrucciones de configuración para Java que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Java.

Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.

Configura el tiempo de caducidad predeterminado con el método Dataset.Builder.setDefaultTableLifetime().

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.Dataset;
import java.util.concurrent.TimeUnit;

public class UpdateDatasetExpiration {

  public static void runUpdateDatasetExpiration() {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    updateDatasetExpiration(datasetName);
  }

  public static void updateDatasetExpiration(String datasetName) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      // Update dataset expiration to one day
      Long newExpiration = TimeUnit.MILLISECONDS.convert(1, TimeUnit.DAYS);

      Dataset dataset = bigquery.getDataset(datasetName);
      bigquery.update(dataset.toBuilder().setDefaultTableLifetime(newExpiration).build());
      System.out.println("Dataset description updated successfully to " + newExpiration);
    } catch (BigQueryException e) {
      System.out.println("Dataset expiration was not updated \n" + e.toString());
    }
  }
}

Node.js

Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Node.js.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function updateDatasetExpiration() {
  // Updates the lifetime of all tables in the dataset, in milliseconds.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = "my_dataset";

  // Retreive current dataset metadata
  const dataset = bigquery.dataset(datasetId);
  const [metadata] = await dataset.getMetadata();

  // Set new dataset metadata
  const expirationTime = 24 * 60 * 60 * 1000;
  metadata.defaultTableExpirationMs = expirationTime.toString();

  const [apiResponse] = await dataset.setMetadata(metadata);
  const newExpirationTime = apiResponse.defaultTableExpirationMs;

  console.log(`${datasetId} expiration: ${newExpirationTime}`);
}

Python

Antes de probar esta muestra, sigue las instrucciones de configuración para Python incluidas en la Guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.

Configura la propiedad Dataset.default_table_expiration_ms y llama a Client.update_dataset() para enviar la actualización a la API.

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set dataset_id to the ID of the dataset to fetch.
# dataset_id = 'your-project.your_dataset'

dataset = client.get_dataset(dataset_id)  # Make an API request.
dataset.default_table_expiration_ms = 24 * 60 * 60 * 1000  # In milliseconds.

dataset = client.update_dataset(
    dataset, ["default_table_expiration_ms"]
)  # Make an API request.

full_dataset_id = "{}.{}".format(dataset.project, dataset.dataset_id)
print(
    "Updated dataset {} with new expiration {}".format(
        full_dataset_id, dataset.default_table_expiration_ms
    )
)

Actualiza el vencimiento predeterminado de las particiones

Puedes actualizar el tiempo de vencimiento predeterminado de las particiones de un conjunto de datos de las siguientes maneras:

  • Mediante el comando bq update de la herramienta de línea de comandos de bq
  • Con una llamada al método datasets.patch de la API
  • Con las bibliotecas cliente

En la actualidad, ni Cloud Console ni la IU web clásica de BigQuery permiten configurar o actualizar el vencimiento predeterminado de las particiones de un conjunto de datos.

Puedes configurar un tiempo de vencimiento predeterminado para las particiones al nivel del conjunto de datos, que se aplicarán a todas las tablas particionadas nuevas, o puedes configurar un vencimiento de partición para tablas individuales en el momento en que se crean. Si configuras el vencimiento predeterminado de las particiones y de las tablas a nivel del conjunto de datos, solo se definirá el vencimiento de las particiones de las nuevas tablas particionadas. Si configuras ambas opciones, el vencimiento predeterminado de las particiones anulará el vencimiento predeterminada de las tablas.

Si configuras el vencimiento de la partición cuando se crea la tabla particionada, ese valor anula el vencimiento de partición predeterminado al nivel de conjunto de datos, si existe alguno.

Si no configuras una caducidad predeterminada para la partición a nivel de conjunto de datos ni una caducidad destinada a la partición cuando creas la tabla, las particiones nunca caducarán y deberás borrarlas de forma manual.

Cuando configuras una caducidad predeterminada para la partición en un conjunto de datos, la caducidad se aplica a todas las particiones en todas las tablas particionadas creadas en el conjunto de datos. Cuando configuras la caducidad de la partición en una tabla, la caducidad se aplica a todas las particiones creadas en la tabla especificada. En la actualidad, no puedes aplicar diferentes tiempos de caducidad a distintas particiones en la misma tabla.

Ten en cuenta lo siguiente cuando actualizas la configuración predeterminada de caducidad de la partición de un conjunto de datos:

  • Si cambias el valor de “never” a un vencimiento definido, cualquier partición que ya exista en las tablas particionadas del conjunto de datos no se vencerá, a menos que se haya configurado el vencimiento de partición en la tabla durante su creación.
  • Si cambias el valor para la caducidad predeterminada de la partición, cualquier partición en las tablas particionadas existentes caducará según la caducidad predeterminada de la partición original. Todas las tablas particionadas nuevas creadas en el conjunto de datos tienen la configuración de caducidad nueva de la partición, a menos que especifiques una caducidad diferente para la partición en la tabla cuando la creas.

El valor para la caducidad predeterminada de la partición se expresa de manera diferente dependiendo de dónde se configura el valor. Usa el método que te dé el nivel de detalle adecuado:

  • En la herramienta de línea de comandos de bq, el vencimiento se expresa en segundos.
  • En la API, la caducidad se expresa en milisegundos.

Para actualizar la fecha y hora de vencimiento predeterminada de una partición en un conjunto de datos, haz lo siguiente:

Console

Por el momento, Cloud Console no permite actualizar el vencimiento predeterminado de las particiones de un conjunto de datos.

IU clásica

Por el momento, la IU web clásica de BigQuery no permite actualizar el vencimiento predeterminado de las particiones de un conjunto de datos.

bq

Para actualizar el tiempo de vencimiento predeterminado de un conjunto de datos, ingresa el comando bq update con la marca --default_partition_expiration. Si actualizas un conjunto de datos en un proyecto que no es tu proyecto predeterminado, debes agregar el ID del proyecto al nombre del conjunto de datos en el formato siguiente: project_id:dataset.

bq update \
--default_partition_expiration integer \
project_id:dataset

Reemplaza lo siguiente:

  • integer: es la duración predeterminada (en segundos) para las particiones en tablas particionadas recién creadas. Esta marca no tiene un valor mínimo. Especifica 0 para quitar el vencimiento existente. Todas las particiones de las tablas particionadas nuevas se borrarán al cabo de integer segundos después de la fecha de la partición en formato UTC. Este valor se aplica si no especificas un vencimiento para las particiones durante la creación de la tabla.
  • project_id: es el ID de tu proyecto.
  • dataset: es el nombre del conjunto de datos que estás actualizando

Ejemplos:

Ingresa el siguiente comando a fin de establecer el vencimiento de partición predeterminado para las nuevas tablas particionadas creadas en mydataset en 26 horas (93,600 segundos). El conjunto de datos se encuentra en tu proyecto predeterminado.

bq update --default_partition_expiration 93600 mydataset

Ingresa el siguiente comando a fin de establecer el vencimiento de partición predeterminado para las nuevas tablas particionadas creadas en mydataset en 26 horas (93,600 segundos). El conjunto de datos se encuentra en myotherproject, no en el proyecto predeterminado.

bq update --default_partition_expiration 93600 myotherproject:mydataset

API

Llama a datasets.patch y actualiza la propiedad defaultPartitionExpirationMs en el recurso de conjunto de datos. El vencimiento se expresa en milisegundos. Debido a que el método datasets.update reemplaza todo el recurso del conjunto de datos, es preferible usar el método datasets.patch.

Actualiza los controles de acceso al conjunto de datos

El proceso para actualizar los controles de acceso a un conjunto de datos es muy similar al proceso para asignar controles de acceso a un conjunto de datos. No se pueden aplicar controles de acceso durante la creación del conjunto de datos con Cloud Console, la IU web clásica de BigQuery o la herramienta de línea de comandos de bq. Primero debes crear el conjunto de datos y, luego, actualizar los controles de acceso correspondientes. La API te permite actualizar los controles de acceso al conjunto de datos mediante una llamada al método datasets.patch.

Cuando actualizas los controles de acceso de un conjunto de datos, puedes modificar el acceso para las siguientes entidades:

  • Correo electrónico de Cuenta de Google: otorga a una Cuenta de Google individual acceso al conjunto de datos.
  • Grupo de Google: Otorga a todos los miembros de un Grupo de Google acceso al conjunto de datos.
  • Dominio de Google Apps: otorga a todos los usuarios y grupos de un dominio de Google acceso al conjunto de datos.
  • Cuenta de servicio: Otorga acceso al conjunto de datos a una cuenta de servicio.
  • Cualquiera: Ingresa “allUsers” para otorgar acceso al público general.
  • Todas las Cuentas de Google: Ingresa “allAuthenticatedUsers” para otorgar acceso a cualquier usuario que haya accedido a una Cuenta de Google.
  • Vistas autorizadas: Otorga acceso de vista autorizada al conjunto de datos.

Para actualizar los controles de acceso en un conjunto de datos, haz lo siguiente:

Console

  1. En la sección Recursos del panel de navegación, haz clic en tu conjunto de datos.

  2. Haz clic en Compartir conjunto de datos.

  3. Para borrar entradas existentes, en el cuadro de diálogo Compartir conjunto de datos, expande la entrada y haz clic en el ícono de borrar (papelera).

  4. Para agregar entradas nuevas en el diálogo Compartir conjunto de datos, haz lo siguiente:

    1. Ingresa la entidad en el cuadro Agregar miembros.

    2. En Seleccionar una función, elige una función de IAM adecuada de la lista. Para obtener más información sobre los permisos asignados a cada función predefinida de BigQuery, consulta la página Funciones y permisos predefinidos.

    3. Haz clic en Agregar.

  5. Para agregar una vista autorizada, haz clic en la pestaña Vista autorizada, ingresa el proyecto, el conjunto de datos y la vista, y haz clic en Agregar.

  6. Cuando termines de agregar o borrar tus controles de acceso, haz clic en Listo.

IU clásica

  1. Haz clic en la flecha desplegable a la derecha del conjunto de datos y elige Compartir conjunto de datos.

  2. Para modificar las entradas existentes del cuadro de diálogo Compartir conjunto de datos, sigue estos pasos:

    • Quita las entradas existentes mediante un clic en el ícono X a la derecha de la entidad.
    • Haz clic en el botón de permisos y selecciona un nivel de acceso adecuado para cambiar los permisos de una entidad: Is owner (OWNER), Can edit (WRITER) o Can view (READER). Para obtener más información sobre las funciones a nivel de conjunto de datos, consulta Funciones y permisos básicos.
  3. Para agregar entradas nuevas en el diálogo Compartir conjunto de datos, haz lo siguiente:

    1. Haz clic en el menú desplegable a la izquierda del campo Agregar personas (Add People) y selecciona la opción correspondiente.

    2. Escribe un valor en el cuadro de texto. Por ejemplo, si seleccionaste Usuario por correo electrónico, escribe la dirección de correo electrónico del usuario.

    3. A la derecha del campo Add People, haz clic Puede ver y elige la función adecuada de la lista.

      Agrega personas a un conjunto de datos.

    4. Haz clic en Agregar.

  4. Cuando termines de agregar, borrar o modificar tus controles de acceso, haz clic en Guardar cambios.

  5. Haz clic en la flecha desplegable a la derecha del conjunto de datos y selecciona Compartir conjunto de datos para verificar tus controles de acceso. Puedes confirmar la configuración en el cuadro de diálogo Compartir conjunto de datos.

bq

  1. Escribe la información del conjunto de datos existente (incluidos los controles de acceso) en un archivo JSON mediante el comando show. Si el conjunto de datos está en un proyecto que no es tu proyecto predeterminado, agrega el ID del proyecto al nombre del conjunto de datos en el siguiente formato: project_id:dataset.

    bq show \
    --format=prettyjson \
    project_id:dataset > path_to_file
    

    Reemplaza lo siguiente:

    • project_id: es el ID de tu proyecto.
    • dataset: es el nombre de tu conjunto de datos.
    • path_to_file: es la ruta al archivo JSON en tu máquina local.

    Ejemplos:

    Ingresa el siguiente comando para escribir los controles de acceso de mydataset en un archivo JSON. mydataset está en tu proyecto predeterminado.

    bq show --format=prettyjson mydataset > /tmp/mydataset.json
    

    Ingresa el siguiente comando para escribir los controles de acceso de mydataset en un archivo JSON. mydataset está en myotherproject.

    bq show --format=prettyjson \
    myotherproject:mydataset > /tmp/mydataset.json
    
  2. Realiza los cambios a la sección "access" del archivo JSON. Puedes agregar o quitar cualquiera de las entradas specialGroup: projectOwners, projectWriters, projectReaders y allAuthenticatedUsers. También puedes agregar, quitar o modificar cualquiera de los siguientes elementos: userByEmail, groupByEmail y domain.

    Por ejemplo, la sección de acceso del archivo JSON de un conjunto de datos se vería de la siguiente manera:

    {
     "access": [
      {
       "role": "READER",
       "specialGroup": "projectReaders"
      },
      {
       "role": "WRITER",
       "specialGroup": "projectWriters"
      },
      {
       "role": "OWNER",
       "specialGroup": "projectOwners"
      }
      {
       "role": "READER",
       "specialGroup": "allAuthenticatedUsers"
      }
      {
       "role": "READER",
       "domain": "[DOMAIN_NAME]"
      }
      {
       "role": "WRITER",
       "userByEmail": "[USER_EMAIL]"
      }
      {
       "role": "READER",
       "groupByEmail": "[GROUP_EMAIL]"
      }
     ],
    }
    

  3. Cuando tus ediciones estén completas, usa el comando update con la marca --source para incluir el archivo JSON. Si el conjunto de datos está en un proyecto que no es tu proyecto predeterminado, agrega el ID del proyecto al nombre del conjunto de datos en el siguiente formato: project_id:dataset.

    bq update --source path_to_file project_id:dataset
    

    Reemplaza lo siguiente:

    • path_to_file: es la ruta al archivo JSON en tu máquina local.
    • project_id: es el ID de tu proyecto.
    • dataset: es el nombre de tu conjunto de datos.

    Ejemplos:

    Ingresa el siguiente comando a fin de actualizar los controles de acceso para mydataset. mydataset está en tu proyecto predeterminado.

    bq update --source /tmp/mydataset.json mydataset
    

    Ingresa el siguiente comando a fin de actualizar los controles de acceso para mydataset. mydataset está en myotherproject.

    bq update --source /tmp/mydataset.json myotherproject:mydataset
    
  4. Para verificar los cambios del control de acceso, ingresa otra vez el comando show sin escribir la información en un archivo.

    bq show --format=prettyjson dataset
    

    o

    bq show --format=prettyjson project_id:dataset
    

API

Llama a datasets.patch y actualiza la propiedad access en el recurso de conjunto de datos.

Debido a que el método datasets.update reemplaza todo el recurso de conjunto de datos, es preferible usar el método datasets.patch para actualizar los controles de acceso.

Go

Antes de probar este ejemplo, sigue las instrucciones de configuración para Go que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Go.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// updateDatasetAccessControl demonstrates how the access control policy of a dataset
// can be amended by adding an additional entry corresponding to a specific user identity.
func updateDatasetAccessControl(projectID, datasetID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	ds := client.Dataset(datasetID)
	meta, err := ds.Metadata(ctx)
	if err != nil {
		return err
	}
	// Append a new access control entry to the existing access list.
	update := bigquery.DatasetMetadataToUpdate{
		Access: append(meta.Access, &bigquery.AccessEntry{
			Role:       bigquery.ReaderRole,
			EntityType: bigquery.UserEmailEntity,
			Entity:     "sample.bigquery.dev@gmail.com"},
		),
	}

	// Leverage the ETag for the update to assert there's been no modifications to the
	// dataset since the metadata was originally read.
	if _, err := ds.Update(ctx, update, meta.ETag); err != nil {
		return err
	}
	return nil
}

Java

Antes de probar este ejemplo, sigue las instrucciones de configuración para Java que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Java.

Crea una instancia de Dataset.Builder a partir de una instancia de Dataset existente con el método Dataset.toBuilder(). Configura el objeto compilador de conjuntos de datos. Compila el conjunto de datos actualizado con el método Dataset.Builder.build() y llama al método Dataset.update() para enviar la actualización a la API.

Configura los controles de acceso con el método Dataset.Builder.setAcl().

import com.google.cloud.bigquery.Acl;
import com.google.cloud.bigquery.Acl.Role;
import com.google.cloud.bigquery.Acl.User;
import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.Dataset;
import java.util.ArrayList;

public class UpdateDatasetAccess {

  public static void runUpdateDatasetAccess() {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    updateDatasetAccess(datasetName);
  }

  public static void updateDatasetAccess(String datasetName) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      Dataset dataset = bigquery.getDataset(datasetName);

      // Create a new ACL granting the READER role to "sample.bigquery.dev@gmail.com"
      // For more information on the types of ACLs available see:
      // https://cloud.google.com/storage/docs/access-control/lists
      Acl newEntry = Acl.of(new User("sample.bigquery.dev@gmail.com"), Role.READER);

      // Get a copy of the ACLs list from the dataset and append the new entry
      ArrayList<Acl> acls = new ArrayList<>(dataset.getAcl());
      acls.add(newEntry);

      bigquery.update(dataset.toBuilder().setAcl(acls).build());
      System.out.println("Dataset Access Control updated successfully");
    } catch (BigQueryException e) {
      System.out.println("Dataset Access control was not updated \n" + e.toString());
    }
  }
}

Node.js

Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js que se encuentran en la guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Node.js.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function updateDatasetAccess() {
  // Updates a datasets's access controls.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = "my_dataset";

  // Create new role metadata
  const newRole = {
    role: 'READER',
    entity_type: 'userByEmail',
    userByEmail: 'sample.bigquery.dev@gmail.com',
  };

  // Retreive current dataset metadata
  const dataset = bigquery.dataset(datasetId);
  const [metadata] = await dataset.getMetadata();

  // Add new role to role acess array
  metadata.access.push(newRole);
  const [apiResponse] = await dataset.setMetadata(metadata);
  const newAccessRoles = apiResponse.access;
  newAccessRoles.forEach(role => console.log(role));
}

Python

Antes de probar esta muestra, sigue las instrucciones de configuración para Python incluidas en la Guía de inicio rápido de BigQuery sobre cómo usar bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de BigQuery para Python.

Establece la propiedad dataset.access_entries con los controles de acceso para un conjunto de datos. Luego, llama a la función client.update_dataset() para actualizar la propiedad.
from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set dataset_id to the ID of the dataset to fetch.
# dataset_id = 'your-project.your_dataset'

dataset = client.get_dataset(dataset_id)  # Make an API request.

entry = bigquery.AccessEntry(
    role="READER",
    entity_type="userByEmail",
    entity_id="sample.bigquery.dev@gmail.com",
)

entries = list(dataset.access_entries)
entries.append(entry)
dataset.access_entries = entries

dataset = client.update_dataset(dataset, ["access_entries"])  # Make an API request.

full_dataset_id = "{}.{}".format(dataset.project, dataset.dataset_id)
print(
    "Updated dataset '{}' with modified user permissions.".format(full_dataset_id)
)

Próximos pasos