Questo tutorial è destinato agli utenti di App Engine MapReduce. Mostra come eseguire la migrazione dall'utilizzo di App Engine MapReduce ad Apache Beam e Dataflow.
Perché eseguire la migrazione?
App Engine MapReduce è un modello di programmazione per l'elaborazione di grandi quantità di dati in modo parallelo e distribuito. È utile per attività di grandi dimensioni e di lunga durata che non possono essere gestite nell'ambito di una singola richiesta, ad esempio:
- Analisi dei log delle applicazioni
- Aggregazione di dati correlati provenienti da origini esterne
- Trasformazione dei dati da un formato all'altro
- Esportazione dei dati per l'analisi esterna
Tuttavia, App Engine MapReduce è una libreria open source gestita dalla community che si basa sui servizi App Engine e non è più supportata da Google.
Dataflow, invece, è completamente supportato da Google e fornisce funzionalità estese rispetto ad App Engine MapReduce.
Richieste di migrazione
Di seguito sono riportati alcuni casi di esempio in cui potresti trarre vantaggio dalla migrazione App Engine MapReduce ad Apache Beam e Dataflow:
- Archivia i dati dell'applicazione di database Datastore in BigQuery per l'elaborazione analitica mediante SQL.
- Utilizza Dataflow come alternativa ad App Engine MapReduce per la manutenzione e/o gli aggiornamenti del set di dati Datastore.
- Esegui il backup di parti del tuo database Datastore in Cloud Storage.
Che cos'è Dataflow e Apache Beam?
Dataflow è un servizio gestito per l'esecuzione di un'ampia varietà di dati pattern di elaborazione. Apache Beam è un modello di programmazione unificato che fornisce SDK per definire i flussi di lavoro di elaborazione dei dati. Utilizza Apache Beam per creare pipeline complesse sia in batch che in streaming ed eseguirle su Dataflow.
Inizia a utilizzare Dataflow e Apache Beam
Per iniziare, segui la guida rapida che preferisci:
Creazione ed esecuzione di una pipeline
Quando utilizzi App Engine MapReduce, crei classi di elaborazione dati, aggiungi
la libreria MapReduce e, una volta definite le specifiche e le impostazioni del job,
crei e avvii il job in un solo passaggio utilizzando il metodo start()
statico su
la classe lavorativa appropriata.
Per i job Mappa, puoi creare le classi Input
e Output
e la classe Map
che esegue la mappatura. Per i job MapReduce di App Engine, crei classi Input
e Output
e definisci le classi Mapper
e Reducer
per le trasformazioni dei dati.
Con Apache Beam le cose funzionano in modo leggermente diverso: crei una pipeline. Puoi utilizzare i connettori di input e output per leggere e scrivere dai dati di origini e sink. Puoi utilizzare trasformazioni di dati predefinite (o crearne di tue) per implementare le trasformazioni dei dati. Una volta che il codice è pronto, esegui il deployment della pipeline nel servizio Dataflow.
Conversione dei job App Engine MapReduce in pipeline Apache Beam
La seguente tabella presenta gli equivalenti Apache Beam della mappa, shuffle e ridurre i passaggi del modello App Engine MapReduce.
Java
MapReduce di App Engine | Equivalente di Apache Beam |
---|---|
Mappa | MapElements<InputT,OutputT> |
Shuffle | GroupByKey<K,V> |
Riduci | Combine.GroupedValues<K,InputT,OutputT> |
È prassi comune usare Combine.PerKey<K,InputT,OutputT>
anziché GroupByKey
e CombineValues
.
Python
MapReduce di App Engine | Equivalente di Apache Beam |
---|---|
Mappa | beam.Map |
Shuffle | beam.GroupByKey |
Riduci | beam.CombineValues |
È prassi comune usare beam.CombinePerKey
anziché
beam.GroupByKey
e beam.CombineValues
.
Vai
MapReduce di App Engine | Equivalente di Apache Beam |
---|---|
Mappa | beam.ParDo |
Shuffle | beam.GroupByKey |
Riduci | beam.Combine |
Il codice campione seguente mostra come implementare App Engine
Modello MapReduce in Apache Beam:
Java
Tratto da MinimalWordCount.java:p.apply(TextIO.read().from("gs://apache-beam-samples/shakespeare/*")) // Apply a ParDo that returns a PCollection, where each element is an // individual word in Shakespeare's texts. .apply("ExtractWords", ParDo.of(new DoFn<String, String>() { @ProcessElement public void processElement(ProcessContext c) { for (String word : c.element().split(ExampleUtils.TOKENIZER_PATTERN)) { if (!word.isEmpty()) { c.output(word); } } } })) // Apply the Count transform that returns a new PCollection of key/value pairs, // where each key represents a unique word in the text. .apply(Count.perElement()) // Apply a MapElements transform that formats our PCollection of word counts // into a printable string, suitable for writing to an output file. .apply("FormatResults", MapElements.via(new SimpleFunction<KV<String, Long>, String>() { @Override public String apply(KV<String, Long> input) { return input.getKey() + ": " + input.getValue(); } })) // Apply a write transform that writes the contents of the PCollection to a // series of text files. .apply(TextIO.write().to("wordcounts"));
Python
Tratto da wordcount_minimal.py:# Read the text file[pattern] into a PCollection. lines = p | ReadFromText(known_args.input) # Count the occurrences of each word. counts = ( lines | 'Split' >> (beam.FlatMap(lambda x: re.findall(r'[A-Za-z\']+', x)) .with_output_types(unicode)) | 'PairWithOne' >> beam.Map(lambda x: (x, 1)) | 'GroupAndSum' >> beam.CombinePerKey(sum)) # Format the counts into a PCollection of strings. output = counts | 'Format' >> beam.Map(lambda (w, c): '%s: %s' % (w, c)) # Write the output using a "Write" transform that has side effects. # pylint: disable=expression-not-assigned output | WriteToText(known_args.output)
Vai
Tratto da minimal_wordcount.go:// beam.Init() is an initialization hook that must be called on startup. beam.Init() // Create the Pipeline object and root scope. p := beam.NewPipeline() s := p.Root() lines := textio.Read(s, "gs://apache-beam-samples/shakespeare/kinglear.txt") // Invoke a ParDo transform on our PCollection of text lines. // This ParDo invokes a DoFn (defined in-line) on each element that // tokenizes the text line into individual words. The ParDo returns a // PCollection of type string, where each element is an individual word in // Shakespeare's collected texts. words := beam.ParDo(s, func(line string, emit func(string)) { for _, word := range wordRE.FindAllString(line, -1) { emit(word) } }, lines) // Invoke the stats.Count transform on our PCollection of // individual words. The Count transform returns a new PCollection of // key/value pairs, where each key represents a unique word in the text. // The associated value is the occurrence count for that word. counted := stats.Count(s, words) // Use a ParDo to format our PCollection of word counts into a printable // string, suitable for writing to an output file. When each element // produces exactly one element, the DoFn can simply return it. formatted := beam.ParDo(s, func(w string, c int) string { return fmt.Sprintf("%s: %v", w, c) }, counted) // Invoke textio.Write at the end of the pipeline to write // the contents of a PCollection (in this case, our PCollection of // formatted strings) to a text file. textio.Write(s, "wordcounts.txt", formatted)
Ulteriori vantaggi di Apache Beam e Dataflow
Se scegli di eseguire la migrazione dei job MapReduce di App Engine alle pipeline Apache Beam, potrai usufruire di diverse funzionalità offerte da Apache Beam e Dataflow.
Pianificazione dei job Cloud Dataflow
Se hai dimestichezza con le code di attività di App Engine, puoi pianificare i job ricorrenti utilizzando Cron. Questo esempio illustra come utilizzare App Engine Cron per pianificare di pipeline di Apache Beam.
Esistono diversi modi aggiuntivi per pianificare l'esecuzione della pipeline. Puoi:
- Utilizza i modelli Dataflow per posizionare le pipeline in Cloud Storage ed eseguirle da una varietà di ambienti cloud-native.
- Utilizzare il servizio Cron di App Engine o le funzioni di Cloud Run.
- Utilizza Apache Airflow.
Monitoraggio dei job Cloud Dataflow
Per monitorare i job App Engine MapReduce,
dipende da un URL ospitato da appspot.com
.
Quando esegui le pipeline utilizzando il servizio gestito Dataflow, puoi monitorarle utilizzando la comoda interfaccia utente di monitoraggio basata sul web di Dataflow. Puoi anche utilizzare Cloud Monitoring per ulteriori informazioni sulle pipeline.
Lettura e scrittura
In Apache Beam, Lettori e scrittori di App Engine MapReduce sono chiamati origini dati e sink o connettori I/O.
Apache Beam dispone di molti connettori I/O per diversi servizi Google Cloud, come Bigtable, BigQuery, Datastore, Cloud SQL e altri. Esistono anche connettori I/O creati dai collaboratori di Apache Beam per servizi non Google, come Apache Cassandra e MongoDB.
Passaggi successivi
- Scopri di più sul modello di programmazione Apache Beam
- Scopri come progettare, creare e testare la pipeline
- Esamina le procedure dettagliate di esempio