Lettura di dati
bookmark_borderbookmark
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Leggi i dati da Cloud Bigtable con Apache Beam.
Per saperne di più
Per la documentazione dettagliata che include questo esempio di codice, consulta quanto segue:
Esempio di codice
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],[],[[["This code sample demonstrates how to read data from Cloud Bigtable using Apache Beam."],["The example uses the `CloudBigtableIO` class to configure and perform the read operation with a specified scan."],["It utilizes a `Scan` object with a `FirstKeyOnlyFilter` to optimize the data retrieval process, setting cache blocks to false."],["The pipeline reads the results from Bigtable and processes each row, printing the row key to the console, using a `DoFn` to apply a custom transformation."],["The required configuration parameters for Bigtable, such as project ID, instance ID, and table ID, are provided through the `BigtableOptions` interface, which extends `DataflowPipelineOptions`."]]],[]]