Migrazione dei dati di Amazon Redshift con una rete VPC
Questo documento spiega come eseguire la migrazione dei dati da Amazon Redshift a BigQuery utilizzando una VPC.
Se hai un'istanza Amazon Redshift privata in AWS, puoi eseguire la migrazione dei dati in BigQuery creando una rete VPC (Virtual Private Cloud) e collegandola alla rete VPC di Amazon Redshift. Il processo di migrazione dei dati funziona nel seguente modo:
- Crea una rete VPC nel progetto che vuoi utilizzare per il trasferimento. La rete VPC non può essere una rete VPC condivisa.
- Configura una rete privata virtuale (VPN) e connetti la rete VPC del progetto e la rete VPC di Amazon Redshift.
- Specifica la rete VPC del progetto e un intervallo IP riservato durante la configurazione del trasferimento.
- BigQuery Data Transfer Service crea un progetto tenant e lo collega al progetto che stai utilizzando per il trasferimento.
- BigQuery Data Transfer Service crea una rete VPC con una subnet nel progetto tenant, utilizzando l'intervallo IP riservato specificato.
- BigQuery Data Transfer Service crea un peering VPC tra la rete VPC del progetto e la rete VPC del progetto del tenant.
- La migrazione di BigQuery Data Transfer Service viene eseguita nel progetto del tenant. Attiva un'operazione di unload da Amazon Redshift a un'area temporanea in un bucket Amazon S3. La velocità di scarico è determinata dalla configurazione del cluster.
- La migrazione di BigQuery Data Transfer Service trasferisce i tuoi dati dal bucket Amazon S3 a BigQuery.
Se vuoi trasferire i dati dalla tua istanza Amazon Redshift tramite IP pubblici, puoi eseguire la migrazione dei dati di Amazon Redshift in BigQuery con queste istruzioni.
Prima di iniziare
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery and BigQuery Data Transfer Service APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery and BigQuery Data Transfer Service APIs.
Impostare le autorizzazioni richieste
Prima di creare un trasferimento di Amazon Redshift, segui questi passaggi:
Assicurati che la persona che crea il trasferimento disponga delle seguenti autorizzazioni IAM (Identity and Access Management) necessarie in BigQuery:
- Autorizzazioni
bigquery.transfers.update
per creare il trasferimento - Autorizzazioni
bigquery.datasets.update
sul set di dati di destinazione
Il ruolo IAM predefinito
role/bigquery.admin
include le autorizzazionibigquery.transfers.update
ebigquery.datasets.update
. Per saperne di più sui ruoli IAM in BigQuery Data Transfer Service, consulta Controllo dell'accesso.- Autorizzazioni
Consulta la documentazione di Amazon S3 per assicurarti di aver configurato tutte le autorizzazioni necessarie per abilitare il trasferimento. Come minimo, ai dati dell'origine Amazon S3 deve essere applicato il criterio gestito AWS
AmazonS3ReadOnlyAccess
.Concedi le autorizzazioni IAM appropriate per la creazione ed eliminazione dei peering di rete VPC alla persona che configura il trasferimento. Il servizio utilizza le credenziali utente Google Cloud della persona per creare la connessione di peering VPC.
- Autorizzazioni per creare il peering VPC:
compute.networks.addPeering
- Autorizzazioni per eliminare il peering VPC:
compute.networks.removePeering
I ruoli IAM predefiniti
roles/project.owner
,roles/project.editor
eroles/compute.networkAdmin
includono per impostazione predefinita le autorizzazionicompute.networks.addPeering
ecompute.networks.removePeering
.- Autorizzazioni per creare il peering VPC:
Crea un set di dati
Crea un set di dati BigQuery per archiviare i dati. Non è necessario creare tabelle.
Concedi l'accesso al tuo cluster Amazon Redshift
Segui le istruzioni riportate in Configurare le regole in entrata per i client SQL per inserire nella lista consentita gli intervalli IP del tuo cluster Amazon Redshift privato. In un passaggio successivo, quando configuri il trasferimento, definisci l'intervallo IP privato in questa rete VPC.
Concedi l'accesso al tuo bucket Amazon S3
Devi disporre di un bucket Amazon S3 da utilizzare come area di staging per trasferire i dati di Amazon Redshift in BigQuery. Per istruzioni dettagliate, consulta la documentazione di Amazon.
Ti consigliamo di creare un utente Amazon IAM dedicato e di concedere a questo utente solo l'accesso in lettura ad Amazon Redshift e l'accesso in lettura e scrittura ad Amazon S3. Per completare questo passaggio, puoi applicare i seguenti criteri:
Crea una coppia di chiavi di accesso utente IAM di Amazon.
Configurare il controllo dei carichi di lavoro con una coda di migrazione separata
Se vuoi, puoi definire una coda Amazon Redshift a fini di migrazione per limitare e separare le risorse utilizzate per la migrazione. Puoi configurare questa coda di migrazione con un conteggio massimo di query in contemporanea. Puoi quindi associare un determinato gruppo di utenti di migrazione alla coda e utilizzare queste credenziali durante la configurazione della migrazione per trasferire i dati in BigQuery. Il servizio di trasferimento ha accesso solo alla coda di migrazione.
Raccogliere le informazioni sul trasferimento
Raccogliere le informazioni necessarie per configurare la migrazione con BigQuery Data Transfer Service:
- Ottieni la VPC e l'intervallo IP riservato in Amazon Redshift.
- Segui queste istruzioni per ottenere l'URL JDBC.
- Recupera il nome utente e la password di un utente con le autorizzazioni appropriate per il tuo database Amazon Redshift.
- Segui le istruzioni riportate in Concedere l'accesso al bucket Amazon S3 per ottenere una coppia di chiavi di accesso AWS.
- Recupera l'URI del bucket Amazon S3 che vuoi utilizzare per il trasferimento. Ti consigliamo di configurare un criterio Lifecycle per questo bucket per evitare addebiti non necessari. Il valore consigliato per la data e l'ora di scadenza è 24 ore per consentire un tempo sufficiente per trasferire tutti i dati in BigQuery.
Valutare i dati
Nell'ambito del trasferimento dei dati, BigQuery Data Transfer Service scrive i dati da Amazon Redshift in Cloud Storage come file CSV. Se questi file contengono il carattere ASCII 0, non possono essere caricati in BigQuery. Ti consigliamo di valutare i tuoi dati per determinare se questo potrebbe essere un problema per te. Se così è, puoi aggirare il problema esportando i dati in Amazon S3 come file Parquet e poi importandoli utilizzando BigQuery Data Transfer Service. Per ulteriori informazioni, consulta la panoramica dei trasferimenti di Amazon S3.
Configura la rete VPC e la VPN
Assicurati di disporre delle autorizzazioni per abilitare il peering VPC. Per ulteriori informazioni, vedi Impostare le autorizzazioni richieste.
Segui le istruzioni riportate in questa guida per configurare una rete VPC Google Cloud, configurare una VPN tra la rete VPC del tuo progetto Google Cloud e la rete VPC di Amazon Redshift e attivare il peering VPC.
Configura Amazon Redshift per consentire la connessione alla VPN. Per ulteriori informazioni, consulta Gruppi di sicurezza del cluster Amazon Redshift.
Nella console Google Cloud, vai alla pagina Reti VPC per verificare che la rete VPC di Google Cloud esista nel progetto Google Cloud ed è connessa ad Amazon Redshift tramite la VPN.
Nella pagina della console sono elencate tutte le reti VPC.
Configurare un trasferimento di Amazon Redshift
Per configurare un trasferimento ad Amazon Redshift:
Nella console Google Cloud, vai alla pagina BigQuery.
Fai clic su Trasferimenti di dati.
Fai clic su Crea trasferimento.
Nella sezione Tipo di origine, seleziona Migrazione: Amazon Redshift dall'elenco Origine.
Nella sezione Nome configurazione di trasferimento, inserisci un nome per il trasferimento, ad esempio
My migration
, nel campo Nome visualizzato. Il nome visualizzato può essere qualsiasi valore che ti consenta di identificare facilmente il trasferimento se devi modificarlo in un secondo momento.Nella sezione Impostazioni di destinazione, scegli il set di dati che hai creato dall'elenco Set di dati.
Nella sezione Dettagli origine dati:
- Per URL di connessione JDBC per Amazon Redshift, fornisci il URL JDBC per accedere al tuo cluster Amazon Redshift.
- In Nome utente del database, inserisci il nome utente del database Amazon Redshift di cui vuoi eseguire la migrazione.
In Password del database, inserisci la password del database.
In ID chiave di accesso e Chiave di accesso segreta, inserisci la coppia di chiavi di accesso ottenuta da Concedere l'accesso al bucket S3.
In URI Amazon S3, inserisci l'URI del bucket S3 che utilizzerai come area temporanea.
In Schema Amazon Redshift, inserisci lo schema Amazon Redshift di cui stai eseguendo la migrazione.
In Modelli di nomi di tabella, specifica un nome o un modello per l'associazione dei nomi delle tabelle nello schema. Puoi utilizzare le espressioni regolari per specificare il pattern nel formato:
<table1Regex>;<table2Regex>
. Il pattern deve seguire la sintassi delle espressioni regolari Java. Ad esempio:lineitem;ordertb
corrisponde alle tabelle denominatelineitem
eordertb
..*
corrisponde a tutte le tabelle.
Lascia vuoto questo campo per eseguire la migrazione di tutte le tabelle dallo schema specificato.
Per la VPC e l'intervallo IP riservato, specifica il nome della rete VPC e l'intervallo di indirizzi IP privati da utilizzare nella rete VPC del progetto tenant. Specifica l'intervallo di indirizzi IP come blocco CIDR.
- Il modulo è
VPC_network_name:CIDR
, ad esempio:my_vpc:10.251.1.0/24
. - Utilizza intervalli di indirizzi di reti VPC private standard nella notazione CIDR,
iniziando con
10.x.x.x
. - L'intervallo IP deve contenere più di 10 indirizzi IP.
- L'intervallo IP non deve sovrapporsi ad alcuna subnet nella rete VPC del progetto o nella rete VPC di Amazon Redshift.
- Se hai configurato più trasferimenti per la stessa istanza Amazon Redshift, assicurati di utilizzare lo stesso valore
VPC_network_name:CIDR
in ciascuna, in modo che più trasferimenti possano riutilizzare la stessa infrastruttura di migrazione.
- Il modulo è
(Facoltativo) Nella sezione Opzioni di notifica, segui questi passaggi:
- Fai clic sul pulsante di attivazione/disattivazione per attivare le notifiche via email. Se attivi questa opzione, l'amministratore dei trasferimenti riceve una notifica via email quando un'esecuzione del trasferimento non va a buon fine.
- In Seleziona un argomento Pub/Sub, scegli il nome dell'argomento o fai clic su Crea un argomento. Questa opzione configura le notifiche di esecuzione di Pub/Sub per il trasferimento.
Fai clic su Salva.
La console Google Cloud mostra tutti i dettagli di configurazione del trasferimento, incluso un nome della risorsa per questo trasferimento.
Quote e limiti
La migrazione di un'istanza privata Amazon Redshift con una rete VPC esegue l'agente di migrazione su un'infrastruttura a singolo tenant. A causa dei limiti delle risorse di calcolo, sono consentite al massimo 5 esecuzioni di trasferimento contemporanee.
BigQuery ha una quota di caricamento di 15 TB per ogni job di caricamento per ogni tabella. Internamente, Amazon Redshift comprime i dati della tabella, pertanto le dimensioni della tabella esportate saranno superiori a quelle riportate da Amazon Redshift. Se prevedi di eseguire la migrazione di una tabella di dimensioni superiori a 15 TB, contatta innanzitutto l'assistenza clienti Google Cloud.
L'utilizzo di questo servizio può comportare costi esterni a Google. Per maggiori dettagli, consulta le pagine dei prezzi di Amazon Redshift e Amazon S3.
A causa del modello di coerenza di Amazon S3, è possibile che alcuni file non vengano inclusi nel trasferimento a BigQuery.
Passaggi successivi
- Scopri di più sulle migrazioni di Amazon Redshift standard.
- Scopri di più su BigQuery Data Transfer Service.
- Esegui la migrazione del codice SQL con la traduzione SQL batch.