Questo tutorial mostra come creare una pipeline riutilizzabile che legga i dati da Cloud Storage, esegua controlli di qualità dei dati e scriva in Cloud Storage.
Le pipeline riutilizzabili hanno una struttura regolare, ma puoi modificare configurazione di ciascun nodo della pipeline in base alle configurazioni fornite da un server HTTP. Ad esempio, un potrebbe leggere i dati da Cloud Storage, applicare trasformazioni e scrivere in una tabella di output BigQuery. Se vuoi che la trasformazione e la tabella di output BigQuery cambino in base al file Cloud Storage letto dalla pipeline, crea una pipeline riutilizzabile.
Obiettivi
- Usa il plug-in Setter dell'argomento di Cloud Storage per consentire alla pipeline di leggere diversi a ogni esecuzione.
- Utilizza il plug-in Impostazione parametri Cloud Storage per consentire alla pipeline di eseguire diversi controlli di qualità in ogni esecuzione.
- Scrivi i dati di output di ogni esecuzione in Cloud Storage.
Costi
In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:
- Cloud Data Fusion
- Cloud Storage
Per generare una stima dei costi basata sull'utilizzo previsto,
utilizza il Calcolatore prezzi.
Prima di iniziare
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion, Cloud Storage, BigQuery, and Dataproc APIs.
- Creare un'istanza Cloud Data Fusion.
Vai all'interfaccia web di Cloud Data Fusion
Quando utilizzi Cloud Data Fusion, utilizzi sia la console Google Cloud e l'interfaccia web separata di Cloud Data Fusion. Nella console Google Cloud, possono creare un progetto nella console Google Cloud, di Cloud Data Fusion. Nell'interfaccia web di Cloud Data Fusion, puoi utilizzare le varie pagine, come Pipeline Studio o Wrangler, per utilizzare Funzionalità di Cloud Data Fusion.
Nella console Google Cloud, apri la pagina Istanze.
Nella colonna Azioni per l'istanza, fai clic su Visualizza istanza . L'interfaccia web di Cloud Data Fusion si apre in una nuova scheda del browser.
Esegui il deployment del plug-in Argument Setter di Cloud Storage
Nell'interfaccia web di Cloud Data Fusion, vai alla pagina Studio.
Nel menu Azioni, fai clic su Impostatore di argomenti GCS.
Leggi da Cloud Storage
- Nell'interfaccia web di Cloud Data Fusion, vai alla pagina Studio.
- Fai clic su arrow_drop_down Origine e seleziona Cloud Storage. Il nodo per un'origine Cloud Storage viene visualizzato nella pipeline.
Sul nodo Cloud Storage, fai clic su Proprietà.
Nel campo Nome di riferimento, inserisci un nome.
Nel campo Percorso, inserisci
${input.path}
. Questa macro controlla cosa il percorso di input di Cloud Storage si troverà tra le diverse esecuzioni della pipeline.Nel riquadro Schema di output a destra, rimuovi il campo offset dallo schema di output facendo clic sull'icona del cestino nella riga del campo offset.
Fai clic su Convalida e correggi gli errori.
Fai clic su
per uscire dalla finestra di dialogo Proprietà.
Trasforma i tuoi dati
- Nell'interfaccia web di Cloud Data Fusion, vai alla pipeline di dati nella pagina Studio.
- Nel menu a discesa Trasforma arrow_drop_down, seleziona Wrangler.
- Nel canvas di Pipeline Studio, trascina una freccia dal nodo Cloud Storage al nodo Wrangler.
- Vai al nodo Wrangler nella pipeline e fai clic su Proprietà.
- In Nome campo di immissione, inserisci
body
. - Nel campo Ricetta, inserisci
${directives}
. Questa macro controlla quale la logica di trasformazione sarà nelle diverse esecuzioni della pipeline. - Fai clic su Convalida e correggi gli errori.
- Fai clic su per uscire dalla finestra di dialogo Proprietà.
Scrivi in Cloud Storage
- Nell'interfaccia web di Cloud Data Fusion, vai alla pipeline di dati nella pagina Studio.
- Nel menu a discesa Destinazione arrow_drop_down, seleziona Cloud Storage.
- Nel canvas di Pipeline Studio, trascina una freccia dal nodo Wrangler verso il nodo Cloud Storage che hai appena aggiunto.
- Vai al nodo di destinazione Cloud Storage nella pipeline e fai clic su Proprietà.
- Nel campo Nome di riferimento, inserisci un nome.
- Nel campo Percorso, inserisci il percorso di un bucket Cloud Storage nel tuo progetto in cui la pipeline può scrivere i file di output. Se non hai un bucket Cloud Storage, creane uno.
- Fai clic su Convalida e correggi gli errori.
- Fai clic su per uscire dalla finestra di dialogo Proprietà.
Imposta gli argomenti delle macro
- Nell'interfaccia web di Cloud Data Fusion, vai alla pipeline di dati nella pagina Studio.
- In arrow_drop_down Nel menu a discesa Condizioni e azioni, fai clic su Impostatore di argomenti GCS.
- Nel canvas di Pipeline Studio, trascina una freccia dal nodo dell'impostazione di argomento di Cloud Storage a nel nodo di origine di Cloud Storage.
- Vai al nodo Impostazione parametri Cloud Storage nella pipeline e fai clic su Proprietà.
Nel campo URL, inserisci il seguente URL:
gs://reusable-pipeline-tutorial/args.json
L'URL corrisponde a un oggetto accessibile pubblicamente in Cloud Storage che contiene i seguenti contenuti:
{ "arguments" : [ { "name": "input.path", "value": "gs://reusable-pipeline-tutorial/user-emails.txt" }, { "name": "directives", "value": "send-to-error !dq:isEmail(body)" } ] }
Il primo dei due argomenti è il valore di
input.path
. Il percorsogs://reusable-pipeline-tutorial/user-emails.txt
è un oggetto accessibile pubblicamente che contiene i seguenti dati di test:alice@example.com bob@example.com craig@invalid@example.com
Il secondo argomento è il valore di
directives
. Il valoresend-to-error !dq:isEmail(body)
configura Wrangler per filtrare tutte le linee indirizzi email non validi. Ad esempio,craig@invalid@example.com
viene filtrato ed escluso.Fai clic su Convalida per assicurarti che non ci siano errori.
Fai clic su
per uscire dalle Proprietà .
Esegui il deployment della pipeline ed eseguila
Nella barra superiore della pagina Pipeline Studio, fai clic su Assegna un nome alla pipeline. Assegna un nome alla pipeline e fai clic su Salva.
Fai clic su Esegui il deployment.
Per aprire gli argomenti di runtime e visualizzare la macro (runtime)
input.path
edirectives
argomenti, fai clic su arrow_drop_down menu a discesa accanto a Esegui.Lascia vuoti i campi dei valori per notificare a Cloud Data Fusion che Il nodo di impostazione dell'argomento Cloud Storage nella pipeline imposterà i valori di questi argomenti durante il runtime.
Fai clic su Esegui.
Esegui la pulizia
Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.
Al termine del tutorial, elimina le risorse che hai creato su Google Cloud in modo che non occupino quota e non ti vengano addebitate in futuro. Le seguenti sezioni descrivono come eliminare o disattivare queste impostazioni Google Cloud.
Elimina l'istanza Cloud Data Fusion
Segui le istruzioni per eliminare l'istanza Cloud Data Fusion.
Elimina il progetto
Il modo più semplice per eliminare la fatturazione creato per il tutorial.
Per eliminare il progetto:
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
Passaggi successivi
- Leggi le guide illustrative
- Segui un altro tutorial