Questa pagina spiega come importare i metadati in un servizio Dataproc Metastore.
La funzionalità di importazione dei metadati consente di completare un servizio Dataproc Metastore esistente con metadati archiviati in un formato di archiviazione portatile.
Questi metadati portabili vengono in genere esportati da un altro servizio Dataproc Metastore o da un metastore Hive (HMS) autogestito.
Informazioni sull'importazione dei metadati
Puoi importare i seguenti formati file in Dataproc Metastore:
- Un insieme di file Avro archiviati in una cartella.
- Un singolo file di dump MySQL archiviato in una cartella di Cloud Storage.
I file MySQL o Avro che importi devono essere generati da un database relazionale.
Se i file sono in un formato diverso, ad esempio PostgreSQL, devi convertirli nel formato Avro o MySQL. Dopo la conversione, puoi importarli in Dataproc Metastore.
Avro
Le importazioni basate su Avro sono supportate solo per le versioni di Hive 2.3.6 e 3.1.2. Durante l'importazione dei file Avro, Dataproc Metastore prevede una serie di file <table-name>.avro
per ogni tabella nel database.
Per importare i file Avro, il servizio Dataproc Metastore può utilizzare il tipo di database MySQL o Spanner.
MySQL
Le importazioni basate su MySQL sono supportate per tutte le versioni di Hive. Durante l'importazione dei file MySQL, Dataproc Metastore si aspetta un singolo file SQL contenente tutte le informazioni della tabella. Sono supportati anche i dump MySQL ottenuti da un cluster Dataproc utilizzando SQL nativo.
Per importare i file MySQL, il servizio Dataproc Metastore deve utilizzare il tipo di database MySQL. Il tipo di database Spanner non supporta le importazioni MySQL.
Considerazioni sull'importazione
L'importazione sovrascrive tutti i metadati esistenti archiviati in un servizio Dataproc Metastore.
La funzionalità di importazione dei metadati importa solo i metadati. I dati creati da Apache Hive nelle tabelle interne non vengono replicati nell'importazione.
L'importazione non trasforma i contenuti del database e non gestisce la migrazione dei file. Se sposti i dati in una posizione diversa, devi aggiornare manualmente lo schema e le posizioni dei dati della tabella nel servizio Dataproc Metastore.
L'importazione non ripristina né sostituisce i criteri IAM granulari.
Se utilizzi Controlli di servizio VPC, puoi importare i dati solo da un bucket Cloud Storage che si trova nello stesso perimetro di servizio del servizio Dataproc Metastore.
Prima di iniziare
- Abilita Dataproc Metastore nel progetto.
- Comprendere i requisiti di networking specifici del tuo progetto.
- Crea un servizio Dataproc Metastore.
Ruoli obbligatori
Per ottenere le autorizzazioni necessarie per importare i metadati in Dataproc Metastore, chiedi all'amministratore di concederti i ruoli IAM seguenti:
-
Per importare i metadati:
-
Dataproc Metastore Editor (
roles/metastore.editor
) sul servizio metadati. -
Amministratore Dataproc Metastore (
roles/metastore.admin
) del progetto.
-
Dataproc Metastore Editor (
-
Per MySQL, per utilizzare l'oggetto Cloud Storage (file di dump SQL) per l'importazione:
concedi al tuo account utente e all'agente di servizio Dataproc Metastore il ruolo Visualizzatore oggetti Storage (
roles/storage.objectViewer
) nel bucket Cloud Storage contenente il dump dei metadati importato. -
Per utilizzare Avro, puoi utilizzare il bucket Cloud Storage per l'importazione:
concedi al tuo account utente e all'agente di servizio Dataproc Metastore il ruolo Visualizzatore oggetti Storage (
roles/storage.objectViewer
) nel bucket Cloud Storage contenente il dump dei metadati importato.
Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso.
Questi ruoli predefiniti contengono le autorizzazioni necessarie per importare i metadati in Dataproc Metastore. Per visualizzare le autorizzazioni necessarie, espandi la sezione Autorizzazioni richieste:
Autorizzazioni obbligatorie
Per importare i metadati in Dataproc Metastore, sono necessarie le seguenti autorizzazioni:
-
Per importare i metadati:
metastore.imports.create
sul servizio metastore. -
Per MySQL, per utilizzare l'oggetto Cloud Storage (file di dump SQL) per l'importazione, concedi al tuo account utente e all'agente di servizio Dataproc Metastore:
storage.objects.get
nel bucket Cloud Storage contenente il dump dei metadati importato. -
Per Avro, al fine di utilizzare il bucket Cloud Storage per l'importazione, concedi il tuo account utente e l'agente di servizio Dataproc Metastore:
storage.objects.get
nel bucket Cloud Storage contenente il dump dei metadati importato.
Potresti anche essere in grado di ottenere queste autorizzazioni con i ruoli personalizzati o altri ruoli predefiniti.
Per ulteriori informazioni su ruoli e autorizzazioni specifici di Dataproc Metastore, consulta Panoramica IAM di Dataproc Metastore.Importa i tuoi metadati
L'operazione di importazione prevede due passaggi. Prima di tutto, prepari i file di importazione e poi li importi in Dataproc Metastore.
Quando avvii un'importazione, Dataproc Metastore esegue una convalida dello schema di metadati Hive. Questa convalida verifica le tabelle nel file di dump SQL e i nomi file di Avro. Se manca una tabella, l'importazione non riesce e viene visualizzato un messaggio di errore che descrive la tabella mancante.
Per verificare la compatibilità dei metadati Hive prima di un'importazione, puoi utilizzare il Toolkit Dataproc Metastore.
Preparare i file da importare prima dell'importazione
Prima di poter importare i file in Dataproc Metastore, devi copiare i file di dump dei metadati in Cloud Storage, ad esempio il bucket Cloud Storage degli artefatti.
Spostare i file in Cloud Storage
Crea un dump del database esterno da importare in Dataproc Metastore.
Per istruzioni sulla creazione di un dump del database, consulta le pagine seguenti:
Carica i file in Cloud Storage.
Assicurati di prendere nota del percorso di Cloud Storage in cui carichi i file, che dovrai utilizzare in seguito per eseguire l'importazione.
Se importi file MySQL, carica il file SQL in un bucket Cloud Storage.
Se importi file Avro, caricali in una cartella Cloud Storage.
- L'importazione Avro deve includere un file Avro per ogni tabella Hive, anche se la tabella è vuota.
- I nomi file Avro devono essere nel formato
<table-name>.avro
. Il campo<table-name>
deve essere tutto maiuscolo. Ad esempio:AUX_TABLE.avro
.
Importa i file in Dataproc Metastore
Prima di importare i metadati, esamina le considerazioni sull'importazione.
Mentre è in esecuzione un'importazione, non puoi aggiornare un servizio Dataproc Metastore, ad esempio modificando le impostazioni di configurazione. Puoi comunque utilizzarlo per le normali operazioni, ad esempio per accedere ai metadati da Dataproc collegati o da cluster autogestiti.
Console
Nella console Google Cloud, apri la pagina Dataproc Metastore:
Nella pagina Dataproc Metastore, fai clic sul nome del servizio in cui vuoi importare i metadati.
Viene visualizzata la pagina Dettagli servizio.
Nella barra di navigazione, fai clic su Importa.
Viene visualizzata la finestra di dialogo Importa.
Inserisci il Nome importazione.
Nella sezione Destinazione, scegli MySQL o Avro.
Nel campo URI di destinazione, fai clic su Sfoglia e seleziona l'URI Cloud Storage in cui vuoi importare i file.
Puoi anche inserire manualmente la località del bucket nel campo di testo fornito. Utilizza il formato seguente:
bucket/object
obucket/folder/object
.(Facoltativo) Inserisci una descrizione dell'importazione.
Puoi modificare la descrizione nella pagina Dettagli servizio.
Per aggiornare il servizio, fai clic su Importa.
Una volta completata, l'importazione viene visualizzata in una tabella della pagina Dettagli servizio nella scheda Importa/Esporta.
Interfaccia a riga di comando gcloud
Per importare i metadati, esegui il seguente comando
gcloud metastore services import gcs
:gcloud metastore services import gcs SERVICE_ID \ --location=LOCATION \ --import-id=IMPORT_ID \ --description=DESCRIPTION \ --dump-type=DUMP_TYPE \ --database-dump=DATABASE_DUMP
Sostituisci quanto segue:
SERVICE_ID
: l'ID o il nome completo del servizio Dataproc Metastore.LOCATION
: la regione Google Cloud in cui si trova il servizio Dataproc Metastore.IMPORT_ID
: un ID o un nome completo per l'importazione dei metadati. Ad esempio,import1
.DESCRIPTION
: facoltativo: una descrizione dell'importazione. Puoi modificare questa scelta in un secondo momento utilizzandogcloud metastore services imports update IMPORT
.DUMP_TYPE
: il tipo di database esterno che stai importando. I valori accettati includonomysql
eavro
. Il valore predefinito èmysql
.DATABASE_DUMP
: il percorso di Cloud Storage contenente i file di database. Questo percorso deve iniziare congs://
. Per Avro, specifica il percorso della cartella in cui sono archiviati i file Avro (la cartella Cloud Storage). Per MySQL, specifica il percorso del file MySQL (l'oggetto Cloud Storage).
Verifica che l'importazione sia riuscita.
REST
Segui le istruzioni dell'API per importare i metadati in un servizio utilizzando Explorer API.
Con l'API puoi creare, elencare, descrivere e aggiornare le importazioni, ma non puoi eliminarle. Tuttavia, l'eliminazione di un servizio Dataproc Metastore comporta l'eliminazione di tutte le importazioni nidificate archiviate.
Una volta completata l'importazione, Dataproc Metastore torna automaticamente allo stato attivo. Se l'importazione non va a buon fine, Dataproc Metastore esegue il rollback allo stato di integrità precedente.
Visualizzazione della cronologia di importazione
Per visualizzare la cronologia di importazione di un servizio Dataproc Metastore nella console Google Cloud, completa questi passaggi:
- Nella console Google Cloud, apri la pagina Dataproc Metastore.
Nella barra di navigazione, fai clic su Importa/Esporta.
La cronologia delle importazioni viene visualizzata nella tabella Cronologia importazioni.
La cronologia mostra le ultime 25 importazioni.
L'eliminazione di un servizio Dataproc Metastore comporta anche l'eliminazione di tutta la cronologia di importazione associata.
Risolvere i problemi comuni
Ecco alcuni problemi comuni:
- L'importazione non riesce perché le versioni di Hive non corrispondono.
- L'agente di servizio o l'account utente non dispone delle autorizzazioni necessarie.
- Il job non riesce perché il file di database è troppo grande.
Per ulteriori informazioni sulla risoluzione dei problemi più comuni, vedi Scenari di errore di importazione ed esportazione.