Cómo leer datos
bookmark_borderbookmark
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Lee datos de Cloud Bigtable con Apache Beam.
Explora más
Para obtener documentación en la que se incluye esta muestra de código, consulta lo siguiente:
Muestra de código
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],[],[[["This code sample demonstrates how to read data from Cloud Bigtable using Apache Beam."],["The example uses the `CloudBigtableIO` class to configure and perform the read operation with a specified scan."],["It utilizes a `Scan` object with a `FirstKeyOnlyFilter` to optimize the data retrieval process, setting cache blocks to false."],["The pipeline reads the results from Bigtable and processes each row, printing the row key to the console, using a `DoFn` to apply a custom transformation."],["The required configuration parameters for Bigtable, such as project ID, instance ID, and table ID, are provided through the `BigtableOptions` interface, which extends `DataflowPipelineOptions`."]]],[]]