Precios

En BigQuery dispones de opciones de precios flexibles y escalables para ayudarte a ajustar tu proyecto y tu presupuesto. Actividades como el almacenamiento y las consultas de datos, y las inserciones de transmisión son de pago, pero la carga y la exportación de datos son gratuitas.

Los precios de BigQuery se basan en una tarifa fija para el almacenamiento y en una tarifa por uso para las consultas. El uso del almacenamiento de proyectos y el uso de las consultas se calcula en gigabytes (GB), donde 1 GB equivale a 230 bytes. Esta unidad de medida también se conoce como gibibyte (GiB). Del mismo modo, 1 TB equivale a 240 bytes (1024 GB). Para obtener más información sobre los precios del almacenamiento y de las consultas, echa un vistazo a la lista de SKUs de Google Cloud Platform.

Cada proyecto que creas está vinculado a una cuenta de facturación. Todos los cargos que se aplican por las tareas que se ejecutan en el proyecto se facturan en dicha cuenta. Este procedimiento también se sigue en el caso de los proyectos compartidos con personas ajenas a tu organización. Los costes de almacenamiento de BigQuery también se facturan en la cuenta de facturación vinculada.

BigQuery proporciona mecanismos de control de costes que te permiten limitar los gastos diarios a la cantidad que elijas. Si quieres obtener más información, consulta Crear controles de coste personalizados.

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

Resumen de precios

En la siguiente tabla se resumen los precios de BigQuery. Las cuotas y límites de BigQuery se aplican a estas operaciones.

Ubicaciones con varias regiones en EE. UU. y la UE

Operación Precios Detalles
Almacenamiento 0,02 $ por GB al mes Los primeros 10 GB del mes son gratuitos. Para obtener más información, consulta la sección Precio del almacenamiento.
Almacenamiento a largo plazo 0,01 $ por GB al mes Los primeros 10 GB del mes son gratuitos. Para obtener más información, consulta la sección Precio del almacenamiento.
Inserciones de transmisión 0,01 $ cada 200 MB Para obtener más información, consulta la sección Precio del almacenamiento.
Consultas (análisis) 5 $ por TB El primer TB del mes es gratuito. Consulta la sección Precios según demanda para obtener más información. También hay tarifas fijas disponibles para los clientes con un gran volumen de consultas.
Carga de datos Gratis Consulta el artículo sobre cómo cargar datos en BigQuery.
Copia de datos Gratis Consulta el artículo sobre cómo copiar una tabla.
Exportación de datos Gratis Consulta el artículo sobre cómo exportar datos desde BigQuery.
Operaciones de metadatos Gratis Se pueden realizar las acciones list, get, patch, update y delete en llamadas.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

Región de Tokio

Operación Precios Detalles
Almacenamiento 0,023 $ por GB al mes Los primeros 10 GB del mes son gratuitos. Para obtener más información, consulta la sección Precio del almacenamiento.
Almacenamiento a largo plazo 0,016 $ por GB al mes Los primeros 10 GB del mes son gratuitos. Para obtener más información, consulta la sección Precio del almacenamiento.
Inserciones de transmisión 0,012 $ cada 200 MB Para obtener más información, consulta la sección Precio del almacenamiento.
Consultas (análisis) 8,55 $ por TB El primer TB del mes es gratuito. Consulta la sección Precios según demanda para obtener más información. También hay tarifas fijas disponibles para los clientes con un gran volumen de consultas.
Carga de datos Gratis Consulta el artículo sobre cómo cargar datos en BigQuery.
Copia de datos Gratis Consulta el artículo sobre cómo copiar una tabla.
Exportación de datos Gratis Consulta el artículo sobre cómo exportar datos desde BigQuery.
Operaciones de metadatos Gratis Se pueden realizar las acciones list, get, patch, update y delete en llamadas.
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

Operaciones gratuitas

En la siguiente tabla se muestran las operaciones gratuitas de BigQuery. Las cuotas y límites de BigQuery se aplican a estas operaciones.

Operación Detalles
Carga de datos Cargar datos en BigQuery
Copia de datos Copiar una tabla
Exportación de datos Exportar datos desde BigQuery
Operaciones de metadatos Se pueden realizar las acciones list, get, patch, update y delete en llamadas

Precio de la carga de datos

Actualmente, puedes cargar datos desde una fuente de datos legible (como tu máquina local) o desde Cloud Storage. Cuando cargas datos en BigQuery desde Cloud Storage, no te cobramos la operación de carga, pero sí el almacenamiento de los datos en Cloud Storage. Para obtener más información, consulta la sección Almacenamiento de datos en la página de precios de Cloud Storage. Una vez que los datos se cargan en BigQuery, están sujetos a los precios de almacenamiento de BigQuery.

Cargos de salida de red

Cuando creas un conjunto de datos en BigQuery, tienes que elegir una ubicación. Si escoges US, puedes cargar datos en tablas en el conjunto de datos desde un segmento de Cloud Storage en cualquier otra región. Actualmente no realizamos ningún cargo por la salida de Internet si cargas datos de otra región en un conjunto de datos de EE. UU.

Si eliges una ubicación que no sea US, tienes estas opciones:

  • Cargar los datos de un segmento de Cloud Storage en esa región (el segmento puede ser multirregional o estar en la misma región que el conjunto de datos).
  • Copiar los datos en un segmento en esa región.

Al copiar datos de una región de Cloud Storage a otra, se aplican los precios de red de Cloud Storage.

Precio del almacenamiento

La carga de datos en BigQuery es gratuita, con la salvedad de un pequeño importe que se cobra por los datos transmitidos. El precio del almacenamiento se basa en la cantidad de datos que contienen tus tablas. Dichos datos se calculan según el tipo de datos que almacenas. Para obtener una explicación detallada de cómo calculamos el tamaño de los datos, consulta la sección Cálculo del tamaño de los datos.

Ubicaciones con varias regiones en EE. UU. y la UE

Tras consumir los primeros 10 GB de almacenamiento, se te aplicarán los siguientes cargos:

Acción de almacenamiento Coste
Almacenamiento 0,02 $ por GB al mes
Inserciones de transmisión 0,01 $ por cada 200 MB insertados correctamente; cada fila se calcula con un tamaño mínimo de 1 KB

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

El precio del almacenamiento se prorratea por MB y por segundo. Por ejemplo:

  • Si almacenas 100 MB durante medio mes, pagas 0,001 $ (la décima parte de un centavo).
  • Si almacenas 500 GB durante medio mes, pagas 5 $.
  • Si almacenas 1 TB durante un mes, pagas 20 $.

Región de Tokio

Tras consumir los primeros 10 GB de almacenamiento, se te aplicarán los siguientes cargos:

Acción de almacenamiento Coste
Almacenamiento 0,023 $ por GB al mes
Inserciones de transmisión 0,012 $ por cada 200 MB insertados correctamente; cada fila se calcula con un tamaño mínimo de 1 KB

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

El precio del almacenamiento se prorratea por MB y por segundo. Por ejemplo:

  • Si almacenas 100 MB durante medio mes, pagas 0,001 $ (la décima parte de un centavo).
  • Si almacenas 500 GB durante medio mes, pagas 5 $.
  • Si almacenas 1 TB durante un mes, pagas 20 $.

Precio del nivel gratuito

Los primeros 10 GB de almacenamiento del mes son gratuitos (en cada cuenta de facturación).

Precio del almacenamiento a largo plazo

Si no se edita una tabla durante 90 días consecutivos, su precio disminuirá automáticamente en un 50 % aproximadamente.

Cuando se considera que una tabla está almacenada a largo plazo, no se produce una degradación del rendimiento, la durabilidad, la disponibilidad ni de ninguna otra funcionalidad.

Si se edita la tabla, el precio cambia al del almacenamiento habitual y el temporizador de 90 días empieza a contar de cero.

El temporizador vuelve a cero si se realiza cualquier acción que modifique los datos de la tabla (cargar, copiar o enviar consultas a una tabla de destino):

Acción Notas
añadir Cualquier tarea que tenga una tabla de destino y utilice la disposición de escritura WRITE_APPEND.
sobrescribir Cualquier tarea que tenga una tabla de destino y utilice la disposición de escritura WRITE_TRUNCATE.
insertar en streaming Ingerir datos mediante la llamada a la API Tabledata.insertAll().

El resto de las acciones no provocan que el temporizador empiece de cero. Por ejemplo:

  • Consultar desde
  • Crear vista
  • Exportar
  • Copiar desde
  • Aplicar parche

Cada partición de una tabla se valora por separado a la hora de establecer el precio del almacenamiento a largo plazo. Si no se ha modificado una partición en los últimos 90 días, se considera que sus datos están almacenados a largo plazo y se cobrará según el precio con descuento.

En el caso de las tablas que superan el umbral de 90 días durante un ciclo de facturación, el precio se prorratea como corresponda.

El precio del almacenamiento a largo plazo solo se aplica al almacenamiento de BigQuery, no a fuentes de datos externas.

Precio de las consultas

El precio de las consultas hace referencia al coste de ejecutar tus comandos de SQL y las funciones definidas por el usuario. En BigQuery las consultas se cobran teniendo en cuenta una métrica: el número de bytes procesados, tanto si los datos se almacenan en BigQuery como en una fuente de datos externa (por ejemplo, Google Cloud Storage, Google Drive o Google Cloud Bigtable).

Precio del nivel gratuito

El primer terabyte de datos procesados del mes es gratuito (en cada cuenta de facturación).

Precios según demanda

Ubicaciones con varias regiones en EE. UU. y la UE

Tras consumir el primer terabyte de datos procesados del mes, se aplican los siguientes cargos:

Recurso Precios
Consultas 5 $ por TB

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

  • No se aplican cargos por las consultas que devuelven un error, ni por aquellas que extraigan resultados almacenados en caché.
  • Los cargos se redondean al MB más próximo, con un mínimo de 10 MB de datos procesados por tabla a la que se haga referencia en la consulta y un mínimo de 10 MB de datos procesados por consulta.
  • Si cancelas una tarea de consulta en ejecución, podemos cobrarte hasta alcanzar el coste total de la consulta, como si se hubiera ejecutado hasta el final.
  • BigQuery usa una estructura de datos en columnas. Te cobraremos en función del total de los datos procesados en las columnas que selecciones. Los datos totales por columna se calculan según los tipos de datos. Para obtener más información sobre cómo se calcula el tamaño de tus datos, consulta la sección Cálculo del tamaño de los datos.
  • Si prefieres un coste mensual estable, en lugar de pagar el precio según demanda, consulta la sección Tarifa fija.

Región de Tokio

Tras consumir el primer terabyte de datos procesados del mes, se aplican los siguientes cargos:

Recurso Precios
Consultas 8,55 $ por TB

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

  • No se aplican cargos por las consultas que devuelven un error, ni por aquellas que extraigan resultados almacenados en caché.
  • Los cargos se redondean al MB más próximo, con un mínimo de 10 MB de datos procesados por tabla a la que se haga referencia en la consulta y un mínimo de 10 MB de datos procesados por consulta.
  • Si cancelas una tarea de consulta en ejecución, podemos cobrarte hasta alcanzar el coste total de la consulta, como si se hubiera ejecutado hasta el final.
  • BigQuery usa una estructura de datos en columnas. Te cobraremos en función del total de los datos procesados en las columnas que selecciones. Los datos totales por columna se calculan según los tipos de datos. Para obtener más información sobre cómo se calcula el tamaño de tus datos, consulta la sección Cálculo del tamaño de los datos.
  • Si prefieres un coste mensual estable, en lugar de pagar el precio según demanda, consulta la sección Tarifa fija.

Tarifa fija

BigQuery ofrece una tarifa fija para clientes de empresa o que tengan un gran volumen de consultas y prefieran pagar por estas un coste mensual estable, en lugar de un precio según demanda por terabyte de datos procesados. Al elegir la tarifa fija, el coste de todos los bytes procesados se incluye en el precio de dicha tarifa.

BigQuery administra automáticamente tu cuota de ranuras en función de tu historial, uso y gasto. Para los clientes con un gasto en servicios de análisis superior a 40.000 $ mensuales, se ofrecen varias maneras de aumentar el número de ranuras asignadas.

Tarifa fija:

  • Se aplica solo a los costes de las consultas, no al almacenamiento. Consulta la sección Precio del almacenamiento para conocer estos costes.
  • Se aplica a todos los proyectos vinculados a la cuenta de facturación con tarifa fija.
  • Proporciona más ranuras de BigQuery. Para obtener más información, consulta la siguiente tabla.
  • Proporciona una mayor simultaneidad en las consultas interactivas.
Costes mensuales Ranuras de BigQuery
40.000 $ 2000
Aumentan en incrementos de 10.000 $ 500 ranuras más por cada incremento

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Cloud Platform.

Si te interesa esta tarifa, ponte en contacto con tu representante de ventas.

Precio del lenguaje de manipulación de datos

BigQuery cobra por las consultas de lenguaje de manipulación de datos (DML) según el número de bytes que se hayan procesado.

Precios de DML para tablas sin particiones

En las tablas sin particiones, el número de bytes procesados se calcula de la siguiente forma:

Declaración de DML Bytes procesados
INSERT La suma de bytes procesados de todas las columnas a las que se hace referencia desde las tablas que escanea la consulta.
UPDATE La suma de bytes de todas las columnas a las que se hace referencia desde las tablas que escanea la consulta
y la suma de bytes de todas las columnas en la tabla actualizada en el momento en que comienza UPDATE.
DELETE La suma de bytes de todas las columnas a las que se hace referencia desde las tablas que escanea la consulta
y la suma de bytes de todas las columnas en la tabla modificada en el momento en que comienza DELETE.
MERGE Si solo hay cláusulas INSERT en la declaración MERGE, se cobra la suma de bytes procesados de todas las columnas a las que se hace referencia en todas las tablas que escanea la consulta.
Si hay una cláusula UPDATE o DELETE en la declaración MERGE, se cobra la suma de bytes procesados de todas las columnas a las que se hace referencia en las tablas de origen que escanea la consulta
y la suma de bytes de todas las columnas en la tabla de destino en el momento en que comienza MERGE.

Ejemplos de precios de DML para tablas sin particiones

En los siguientes ejemplos se demuestra cómo calcula BigQuery los bytes leídos para las declaraciones DML que modifican las tablas sin particiones.

Ejemplo 1: Actualizar tabla sin particiones (UPDATE)

table1 tiene dos columnas: col1 de tipo INTEGER y col2 de tipo STRING.

UPDATE table1 SET col1 = 1 WHERE col1 = 2;

Bytes procesados en este ejemplo:

  • Suma del número de bytes de col1 +
  • Suma del número de bytes de col2
Ejemplo 2: Actualizar tabla sin particiones (UPDATE)

table1 tiene dos columnas: col1 de tipo INTEGER y col2 de tipo STRING. table2 tiene una columna: field1 de tipo INTEGER.

UPDATE table1 SET col1 = 1 WHERE col1 in (SELECT field1 from table2)

Bytes procesados en este ejemplo:

  • Suma del número de bytes de table1.col1 antes de UPDATE +
  • Suma del número de bytes de table1.col2 antes de UPDATE +
  • Suma del número de bytes de table2.field1

Precio de DML para tablas con particiones

En tablas con particiones, el número de bytes procesados se calcula de la siguiente forma:

Declaración de DML Bytes procesados
INSERT La suma de bytes procesados de todas las columnas a las que se hace referencia en todas las particiones que escanea la consulta.
UPDATE La suma de bytes procesados de todas las columnas a las que se hace referencia en todas las particiones de las tablas que escanea la consulta
y la suma de bytes de todas las columnas en las particiones escaneadas o actualizadas de la tabla que se actualiza en el momento en que comienza UPDATE.
DELETE La suma de bytes procesados de todas las columnas a las que se hace referencia en todas las particiones de las tablas que escanea la consulta
y la suma de bytes de todas las columnas en las particiones escaneadas o modificadas de la tabla que se modifica en el momento en que comienza DELETE.
MERGE Si solo hay cláusulas INSERT en la declaración MERGE, se cobra la suma de bytes procesados de todas las columnas a las que se hace referencia en todas las particiones que escanea la consulta.
Si hay una cláusula UPDATE o DELETE en la declaración MERGE, se cobra la suma de bytes procesados de todas las columnas a las que se hace referencia en todas las particiones de las tablas de origen que escanea la consulta
y la suma de bytes de todas las columnas en las particiones escaneadas, eliminadas o actualizadas de la tabla de destino en el momento en que comienza MERGE.

Ejemplos de precios de DML para tablas con particiones

En los siguientes ejemplos se demuestra cómo calcula BigQuery los bytes leídos para las declaraciones de DML que modifican el tiempo de ingestión y las tablas con particiones. Para ver las representaciones del esquema JSON de las tablas que se usan en los ejemplos, consulta la sección de tablas utilizadas en ejemplos de la página de actualización de datos de tablas con particiones mediante declaraciones de DML.

Ejemplo 1: Insertar tabla con particiones y tiempo de ingestión (INSERT)

mytable2 tiene dos columnas: id de tipo INTEGER y ts de tipo TIMESTAMP. mytable tiene dos columnas: field1 de tipo INTEGER y field2 de tipo STRING.

INSERT INTO mytable (_PARTITIONTIME, field1) AS SELECT TIMESTAMP(DATE(ts)), id from mytable2

Bytes procesados en este ejemplo:

  • Suma del número de bytes de mytable2.ts +
  • Suma del número de bytes de mytable2.id

El tamaño de la tabla en que se insertan las filas (mytable) no afecta al coste de la consulta.

Ejemplo 2: Insertar tabla con particiones (INSERT)

mytable2 tiene dos columnas: id de tipo INTEGER y ts de tipo TIMESTAMP. mycolumntable tiene cuatro columnas: field1 de tipo INTEGER, field2 de tipo STRING, field3 de tipo BOOLEAN y ts de tipo TIMESTAMP.

INSERT INTO mycolumntable (ts, field1) AS SELECT ts, id from mytable2

Bytes procesados en este ejemplo:

  • Suma del número de bytes de mytable2.ts +
  • Suma del número de bytes de mytable2.id

El tamaño de la tabla en la que se insertan las filas (mycolumntable) no afecta al coste de la consulta.

Ejemplo 3: Actualizar tabla con particiones y tiempo de ingestión (UPDATE)

Declaración de DML 1: Actualizar una sola partición

mytable2 tiene dos columnas: id de tipo INTEGER y ts de tipo TIMESTAMP. mytable tiene dos columnas: field1 de tipo INTEGER y field2 de tipo STRING.

UPDATE project.mydataset.mytable T SET T.field1 = T.field1 + 100 WHERE T._PARTITIONTIME = TIMESTAMP(“2017-05-01”) AND EXISTS (SELECT S.id from project.mydataset.mytable2 S WHERE S.id = T.field1)

Bytes procesados en este ejemplo:

  • Suma del número de bytes de mytable2.id +
  • Suma del número de bytes de mytable.field1 en la partición "2017-05-01" +
  • Suma del número de bytes de mytable.field2 en la partición "2017-05-01"

Declaración de DML 2: Actualizar una partición basada en otra partición de la tabla

UPDATE project.mydataset.mytable T SET T._PARTITIONTIME = TIMESTAMP(“2017-06-01”), T.field1 = T.field1 + 100 WHERE T._PARTITIONTIME = TIMESTAMP(“2017-05-01”) AND EXISTS (SELECT 1 from project.mydataset.mytable S WHERE S.field1 = T.field1 AND S._PARTITIONTIME = TIMESTAMP("2017-06-01") )

Bytes procesados en este ejemplo:

  • Suma del número de bytes de mytable.field1 en la partición "2017-05-01" +
  • Suma del número de bytes de mytable.field2 en la partición "2017-05-01" +
  • Suma del número de bytes de mytable.field1 en la partición "2017-06-01" +
  • Suma del número de bytes de mytable.field2 en la partición "2017-06-01"

En este caso, el coste de la declaración UPDATE se calcula al sumar los tamaños de todos los campos en las particiones que corresponden a "2017-05-01" y "2017-06-01".

Ejemplo 4: Actualizar tabla con particiones (UPDATE)

Declaración de DML 1: Actualizar una sola partición

mytable2 tiene dos columnas: id de tipo INTEGER y ts de tipo TIMESTAMP. mycolumntable tiene cuatro columnas: field1 de tipo INTEGER, field2 de tipo STRING, field3 de tipo BOOLEAN y ts de tipo TIMESTAMP.

UPDATE project.mydataset.mycolumntable T SET T.field1 = T.field1 + 100 WHERE DATE(T.ts) = “2017-05-01” AND EXISTS (SELECT S.id from project.mydataset.mytable2 S WHERE S.id = T.field1)

Bytes procesados en este ejemplo:

  • Suma del número de bytes de mytable2.id +
  • Suma del número de bytes de mycolumntable.field1 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.field2 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.field3 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.ts en la partición "2017-05-01"

Declaración de DML 2: Actualizar una partición basada en otra partición de la tabla

UPDATE project.mydataset.mycolumntable T SET T.ts = TIMESTAMP(“2017-06-01”), T.field1 = T.field1 + 100 WHERE DATE(T.ts) = “2017-05-01” AND EXISTS (SELECT 1 from project.mydataset.mycolumntable S WHERE S.field1 = T.field1 AND DATE(S.ts) = "2017-06-01")

Bytes procesados en este ejemplo:

  • Suma del número de bytes de mycolumntable.field1 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.field2 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.field3 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.ts en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.field1 en la partición "2017-06-01" +
  • Suma del número de bytes de mycolumntable.field2 en la partición "2017-06-01" +
  • Suma del número de bytes de mycolumntable.field3 en la partición "2017-06-01" +
  • Suma del número de bytes de mycolumntable.ts en la partición "2017-06-01"

En este caso, el coste de la declaración UPDATE se calcula al sumar los tamaños de todos los campos en las particiones que corresponden a "2017-05-01" y "2017-06-01".

Ejemplo 5: Eliminar tabla con particiones y tiempo de ingestión (DELETE)

mytable2 tiene dos columnas: id de tipo INTEGER y ts de tipo TIMESTAMP. mytable tiene dos columnas: field1 de tipo INTEGER y field2 de tipo STRING.

DELETE project.mydataset.mytable T WHERE T._PARTITIONTIME = TIMESTAMP(“2017-05-01”) AND EXISTS (SELECT S.id from project.mydataset.mytable2 S WHERE S.id = T.field1)

Bytes procesados en este ejemplo:

  • Suma del número de bytes de mytable2.id +
  • Suma del número de bytes de mytable.field1 en la partición "2017-05-01" +
  • Suma del número de bytes de mytable.field2 en la partición "2017-05-01"
Ejemplo 6: Eliminar tabla con particiones (DELETE)

mytable2 tiene dos columnas: id de tipo INTEGER y ts de tipo TIMESTAMP. mycolumntable tiene cuatro columnas: field1 de tipo INTEGER, field2 de tipo STRING, field3 de tipo BOOLEAN y ts de tipo TIMESTAMP.

DELETE project.mydataset.mycolumntable T WHERE DATE(T.ts) =“2017-05-01” AND EXISTS (SELECT S.id from project.mydataset.mytable2 S WHERE S.id = T.field1)

Bytes procesados en este ejemplo:

  • Suma del número de bytes de mytable2.id +
  • Suma del número de bytes de mycolumntable.field1 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.field2 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.field3 en la partición "2017-05-01" +
  • Suma del número de bytes de mycolumntable.ts en la partición "2017-05-01"

Cálculo del tamaño de los datos

Cuando cargas datos en BigQuery o envías una consulta a los datos, te cobraremos según el tamaño de dichos datos. Calculamos el tamaño de tus datos en función del tamaño de cada tipo de datos.

Tipo de datos Tamaño
STRING 2 bytes + tamaño de la cadena codificada en UTF‑8
INTEGER 8 bytes
FLOAT 8 bytes
BOOLEAN 1 byte
TIMESTAMP 8 bytes
RECORD 0 bytes + el tamaño de los campos que contiene

Los valores nulos de cualquier tipo de datos se computan como 0 bytes. Los campos repetidos se calculan por entrada. Por ejemplo, un INTEGER repetido con 4 entradas cuenta como 32 bytes.

Costes de las consultas de ejemplo para el precio según demanda

Cuando ejecutas una consulta, te cobramos en función del total de datos procesados en las columnas que has seleccionado, incluso si has establecido un LIMIT concreto en los resultados. El total de bytes por columna se calcula según los tipos de datos de la columna. Para obtener más información sobre cómo calculamos el tamaño de tus datos, consulta la sección Cálculo del tamaño de los datos.

En la siguiente tabla se muestran varias consultas de ejemplo y una descripción de la cantidad de bytes que se procesan en cada consulta.

Consulta de ejemplo Bytes procesados

SELECT
  corpus,
  word
FROM
  publicdata:samples.shakespeare
LIMIT 1;
Tamaño total de corpus + tamaño de las columnas word

SELECT
  corpus
FROM
  (SELECT
     *
   FROM
     publicdata:samples.shakespeare);
Tamaño total de la columna corpus

SELECT
  COUNT(*)
FROM
  publicdata:samples.shakespeare;
Ninguno

SELECT
  COUNT(corpus)
FROM
  publicdata:samples.shakespeare;
Tamaño total de la columna corpus

SELECT
  COUNT(*)
FROM
  publicdata:samples.shakespeare
WHERE
  corpus = 'hamlet';
Tamaño total de la columna corpus

SELECT
  shakes.corpus,
  wiki.language
FROM
  publicdata:samples.shakespeare AS shakes
  JOIN EACH
  publicdata:samples.wikipedia AS wiki
  ON shakes.corpus = wiki.title;
Tamaño total de las columnas shakes.corpus, wiki.language y wiki.title

Precio de BigQuery Data Transfer Service

En BigQuery Data Transfer Service se aplican cargos mensuales prorrateados de la siguiente manera:

Aplicación de origen Cargo mensual (prorrateado)
Google AdWords

2,50 $ por ID de cliente único: ExternalCustomerIDs de la tabla Customer, incluidos los ID de cliente sin impresiones.

DoubleClick Campaign Manager

2,50 $ por ID de anunciante único: IDs de anunciante de la tabla impression.

DoubleClick for Publishers

100 $ por ID de red.

Canal de YouTube y propietario del contenido de YouTube

No se aplica ningún cargo hasta el 1 de julio del 2018 (inclusive). Los precios de YouTube se anunciarán más adelante.

Cuando se transfieren los datos a BigQuery, se aplica el precio estándar de este servicio para las consultas y el almacenamiento. Para obtener más información sobre los precios, ponte en contacto con Ventas.

Calcular ID únicos

Cada transferencia que creas genera una o más ejecuciones al día. Cada ejecución lleva un registro de los ID únicos que detecta y de la fecha en que se completa la ejecución de la transferencia. Los ID solo se cuentan el día en que se completa dicha transferencia. Por ejemplo, si una ejecución de transferencia empieza el 14 de julio pero termina el 15 de julio, los ID únicos se cuentan en esta última fecha.

Si se detecta un ID único en más de una ejecución de transferencia en un día concreto, solo se cuenta una vez. En cada transferencia, los ID únicos se cuentan por separado. Si se detecta un ID único en las ejecuciones de 2 transferencias distintas, el ID se cuenta 2 veces.

Ejemplos

Ejemplo 1: tienes 1 transferencia con 3 ejecuciones que se completan el mismo día.

  • La primera ejecución registra los siguientes ID únicos: A, B y C.
  • La segunda ejecución registra el ID A.
  • La tercera ejecución registra los ID C y D.

Dado que todas las ejecuciones finalizan el mismo día, te cobraremos en función de 4 ID únicos: A, B, C y D. Los ID A y C se han registrado en dos ejecuciones distintas del mismo día y, por ello, solo se cuentan una vez. Si las 3 ejecuciones de transferencia se completan todos los días durante un mes, los cargos mensuales se aplican en función de 4 ID únicos. Si dichas ejecuciones se completan en menos ocasiones que el número de días del mes en que se ejecutan, se prorratean los cargos.

Ejemplo 2: Tienes varias transferencias con ejecuciones que se completan el mismo día.

  • Transferencia 1: ejecuta y registra los ID únicos A, B, y C.
  • Transferencia 2: ejecuta y registra el ID A.
  • Transferencia 3: ejecuta y registra los ID C y D.

Dado que los ID únicos se cuentan en las ejecuciones de transferencias distintas, te cobraremos en función de 6 ID únicos: A, B y C en la ejecución de la transferencia 1; A en la ejecución de la transferencia 2, y C y D en la ejecución de la transferencia 3. Si dichas ejecuciones se completan en menos ocasiones que el número de días del mes en que se ejecutan, se prorratean los cargos.

Calcular los cargos de backfill

Si programas un backfill, se planifica una ejecución de transferencia cada día. Después, se aplican los cargos en función del método que se describe en la sección Calcular los ID únicos.

Detener los cargos de BigQuery Data Transfer Service

Si quieres dejar de incurrir en cargos, inhabilita o elimina tu transferencia.

¿Te ha resultado útil esta página? Danos tu opinión:

Enviar comentarios sobre...