Best practice per l'importazione e l'esportazione
Di seguito sono riportate le best practice da considerare per l'importazione e l'esportazione dei dati:
- Non utilizzare i bucket per i pagamenti a carico del richiedente di Cloud Storage
- Comprimi i dati per ridurre i costi.
- Ridurre i processi di importazione ed esportazione a lunga esecuzione
- Utilizzare l'utilità bcp per importare ed esportare i dati
- Utilizzare l'inserimento collettivo per importare i dati
- Utilizzare SqlPackage per l'importazione e l'esportazione dei dati
- Utilizzare l'importazione e l'esportazione a righe
- Verifica il database importato
Non utilizzare i bucket per i pagamenti a carico del richiedente di Cloud Storage
Non puoi utilizzare un bucket Cloud Storage in cui la funzionalità Pagamenti a carico del richiedente è abilitata per le importazioni e le esportazioni da Cloud SQL.
Comprimi i dati per ridurre i costi
Cloud SQL supporta l'importazione e l'esportazione di file compressi e non compressi. La compressione può consentire di risparmiare spazio di archiviazione significativo in Cloud Storage e ridurre i costi di archiviazione, soprattutto durante l'esportazione di istanze di grandi dimensioni.
Quando esporti un file BAK, utilizza un'estensione del file .gz
per comprimere i dati. Quando importi un file con
estensione di .gz
, il file viene decompresso automaticamente.
Riduci i processi di importazione ed esportazione a lunga esecuzione
Il completamento delle importazioni in Cloud SQL e delle esportazioni da Cloud SQL può richiedere molto tempo, a seconda delle dimensioni dei dati elaborati. Ciò può avere i seguenti effetti:
- Non puoi arrestare un'operazione di un'istanza Cloud SQL a lunga esecuzione.
- Puoi eseguire una sola operazione di importazione o esportazione alla volta per ogni istanza e un'importazione o un'esportazione a lunga esecuzione blocca altre operazioni, ad esempio i backup automatici giornalieri.
Puoi ridurre il tempo necessario per completare ogni operazione utilizzando la funzionalità di importazione o esportazione di Cloud SQL con batch di dati più piccoli.
Per le migrazioni di interi database, in genere devi utilizzare file BAK anziché file SQL per le importazioni. In genere, l'importazione da un file SQL richiede molto più tempo dell'importazione da un file BAK.
Utilizzo di SqlPackage per l'importazione e l'esportazione dei dati
Puoi importare ed esportare i dati in Cloud SQL utilizzando SqlPackage. Consente di esportare un database SQL, compresi i dati utente e lo schema del database, in un file BACPAC (.bacpac) e di importare i dati di schema e tabella da un file BACPAC a un nuovo database utente.
SqlPackage utilizza le tue credenziali per la connessione a SQL Server ed eseguire importazioni ed esportazioni del database. Rende disponibili le migrazioni per tutti gli utenti di Cloud SQL. Per eseguire operazioni di importazione ed esportazione, devi disporre di:
Una workstation connessa alla tua istanza in cui puoi eseguire SqlPackage. Per saperne di più sulle opzioni di connettività, vedi Informazioni sulle opzioni di connessione.
SqlPackage installato nel sistema. Per scoprire di più sul download e sull'installazione di SqlPackage, consulta la documentazione di Microsoft.
Credenziali configurate per accedere all'istanza. Per scoprire di più sulla configurazione delle credenziali, consulta Come eseguire l'autenticazione in Cloud SQL.
Esempi
Importa
Per importare dati in un database AdventureWorks2017
, esegui questo comando:
c:\Program Files\Microsoft SQL Server\160\DAC\bin>SqlPackage /Action:Import /tsn:myTargetServer /tdn:AdventureWorks2017 /tu:myUsername /sf:mySourceFile /TargetTrustServerCertificate:True /tp:myPassword
In questo caso,
mySourceFile
è un file di origine che vuoi utilizzare come origine di azione dallo spazio di archiviazione locale. Se utilizzi questo parametro, nessun altro parametro di origine è valido.myTargetServer
è il nome del server che ospita il database di destinazione.myUsername
è il nome utente SQL Server che vuoi utilizzare per accedere al database di destinazione.myPassword
è la password nelle credenziali.
Per saperne di più, consulta la documentazione di Microsoft.
Esporta
Per esportare i dati da un database AdventureWorks2017
, esegui questo comando:
c:\Program Files\Microsoft SQL Server\160\DAC\bin>SqlPackage /Action:Export /TargetFile:"myTargetFile" /ssn:mySourceServer /su:myUsername /sdn:AdventureWorks2017 /SourceTrustServerCertificate:True /sp:myPassword
In questo caso,
myTargetFile
è il file di destinazione (un file .dacpac) che vuoi utilizzare come target dell'azione anziché come database. Se utilizzi questo parametro, nessun altro parametro target è valido. Questo parametro non è valido per le azioni che supportano solo i target di database.myUsername
è il nome utente SQL Server che vuoi utilizzare per accedere al database di origine.mySourceServer
è il nome del server che ospita il database di origine.myPassword
è la password nelle credenziali.
Per saperne di più, consulta la documentazione di Microsoft.
Utilizzare l'utilità bcp per importare ed esportare dati
Un'altra opzione per importare ed esportare dati in Cloud SQL è utilizzare l'utilità del programma di copia collettiva (bcp). Con l'utilità bcp puoi esportare i dati da un database SQL Server in un file di dati e importare i dati da un file di dati in un database SQL Server. L'utilità bcp utilizza le tue credenziali per la connessione a SQL Server al fine di eseguire importazioni ed esportazioni del database. Rende disponibili i trasferimenti per tutti gli utenti di Cloud SQL. Per eseguire operazioni di importazione ed esportazione, devi disporre di:
Una workstation in cui puoi eseguire l'utilità bcp e che si connette alla tua istanza Cloud SQL. Per saperne di più sulle opzioni di connettività, vedi Informazioni sulle opzioni di connessione.
L'utilità bcp installata sul sistema. Per scoprire di più sul download e sull'installazione di bcp, consulta la documentazione di Microsoft.
Credenziali configurate per accedere all'istanza. Per scoprire di più sulla configurazione delle credenziali, consulta Come eseguire l'autenticazione in Cloud SQL.
Esempi
Importa
Per importare i dati dal file person.csv
nella tabella Person
del database AdventureWorks2017
, esegui questo comando:
bcp Person.Person in "person.csv" -d AdventureWorks2017 -U myLoginID -S myServer
In questo caso,
myLoginID
è l'ID di accesso utilizzato per la connessione a SQL Server.myServer
è l'istanza di SQL Server a cui vuoi connetterti. Se non specifichi un server, l'utilità bcp si connette all'istanza predefinita di SQL Server sul computer locale.
Per saperne di più, consulta la documentazione di Microsoft.
Esporta
Per esportare i dati dalla tabella Person
del database AdventureWorks2017
al file person.dat
, esegui questo comando:
bcp Person.Person out "person.dat" -U myLoginID -S myServer -d AdventureWorks2017
In questo caso,
myLoginID
è l'ID di accesso utilizzato per la connessione a SQL Server.myServer
è l'istanza di SQL Server a cui vuoi connetterti. Se non specifichi un server, l'utilità bcp si connette all'istanza predefinita di SQL Server sul computer locale.
Per saperne di più, consulta la documentazione di Microsoft.
Utilizzare l'inserimento collettivo per importare i dati
L'inserimento collettivo consente di importare i dati nel database Cloud SQL per SQL Server da un file archiviato in Cloud Storage.
Questa sezione descrive quanto segue:
- Autorizzazioni e ruoli obbligatori
- Considerazioni sull'utilizzo dell'inserimento collettivo
- Esegui l'inserimento collettivo
- Visualizzare i dati importati
- Disattivare l'inserimento collettivo
Ruoli e autorizzazioni richiesti
Per configurare l'inserimento collettivo, occorre quanto segue:
- L'autorizzazione
CONTROL
per il database in cui vuoi importare i dati. Una chiave di accesso HMAC e un secret mappati a un account IAM con le seguenti autorizzazioni:
storage.buckets.get
storage.objects.create
estorage.multipartUploads.create
per la scrittura di log degli errori ed esempi di dati non validi.
In alternativa, puoi utilizzare anche i seguenti ruoli:
Storage Object Viewer
Storage Object Creator
per la scrittura di log degli errori ed esempi di dati non validi.
Per utilizzare l'inserimento collettivo, è necessario quanto segue:
- Autorizzazione
EXECUTE
per la stored proceduremsdb.dbo.gcloudsql_bulk_insert
. Cloud SQL crea la stored procedure dopo l'abilitazione dell'inserimento collettivo nell'istanza. Cloud SQL concede l'autorizzazioneEXECUTE
all'account amministratoresqlserver
per impostazione predefinita. - L'autorizzazione
INSERT
per l'oggetto in cui vuoi importare i dati.
Per ulteriori informazioni sulla creazione di utenti per l'inserimento collettivo, vedi Creare e gestire gli utenti.
Considerazioni sull'utilizzo dell'inserimento collettivo
Questa sezione contiene consigli per gestire la sicurezza, le prestazioni e l'affidabilità sulle istanze durante l'utilizzo dell'inserimento collettivo.
Sicurezza
Cloud SQL cripta e archivia la chiave di accesso e il secret HMAC in un'istanza come credenziale con ambito database. Non è possibile accedere ai valori dopo il salvataggio. Puoi eliminare la chiave e il secret da un'istanza eliminando le credenziali con ambito del database con un comando T-SQL. Se esegui un backup mentre la chiave e il secret sono archiviati nell'istanza, il backup conterrà quella chiave e il secret. Puoi anche rendere non valida la chiave disattivando ed eliminando la chiave HMAC.
Le seguenti operazioni possono trasferire inavvertitamente la chiave di accesso e il secret e renderli disponibili:
- Clonazione dell'istanza: la chiave e il secret sono disponibili nell'istanza clonata.
- Creazione di una replica di lettura: la chiave e il secret sono disponibili nella replica di lettura creata.
- Ripristino da un backup: la chiave e il secret sono disponibili nell'istanza ripristinata da un backup.
Ti consigliamo di rilasciare la chiave e il secret dall'istanza di destinazione dopo aver eseguito queste operazioni.
L'inserimento collettivo può scrivere dati che non è in grado di analizzare in un file archiviato in un bucket Cloud Storage. Per proteggere i dati a cui ha accesso l'inserimento collettivo, configura i Controlli di servizio VPC.
Prestazioni
Ti consigliamo di procedere come segue per mitigare l'impatto sulle prestazioni durante l'utilizzo dell'inserimento collettivo:
- Testa e imposta un valore appropriato per
@batchsize
, perché per impostazione predefinita tutti i dati vengono importati in un singolo batch. - Per gli inserti di grandi dimensioni, disattiva temporaneamente gli indici per velocizzare l'inserimento dei dati.
- Se possibile, utilizza l'opzione
@tablock
perché può ridurre i conflitti e aumentare le prestazioni del caricamento dei dati. - Utilizza il parametro
@ordercolumnsjson
per specificare i dati ordinati nell'ordine dell'indice in cluster. Ciò consente di migliorare le prestazioni dell'istanza.
Affidabilità
Ti consigliamo di procedere come segue per mitigare l'impatto sull'affidabilità dell'istanza durante l'utilizzo dell'inserimento collettivo:
- Se si verifica un errore e viene utilizzato
@batchsize
, i dati possono essere caricati parzialmente. Potresti dover ripulire manualmente questi dati sull'istanza. - Utilizza l'opzione
@errorfile
per conservare un log degli errori e degli esempi di dati non validi rilevati durante il processo di caricamento. In questo modo è più facile identificare le righe il cui caricamento non è riuscito.
Esegui inserimento collettivo
Puoi eseguire l'operazione di inserimento collettivo utilizzando la stored procedure seguente:
msdb.dbo.gcloudsql_bulk_insert
Per ulteriori informazioni, consulta Stored procedure per l'utilizzo dell'inserimento collettivo.
Esempio: importare i dati da un file in Cloud Storage e specificare un file di errore
1. Attiva l'inserimento collettivo
Per abilitare l'inserimento collettivo sulla tua istanza, abilita il flag cloud sql enable bulk insert
.
gcloud sql instances patch INSTANCE_NAME --database-flags="cloud sql enable bulk insert"=on
Sostituisci INSTANCE_NAME
con il nome dell'istanza che vuoi utilizzare per l'inserimento collettivo.
Per ulteriori informazioni, consulta Configurare i flag di database.
Dopo aver abilitato questo flag sulla tua istanza, Cloud SQL installa la stored procedure di inserimento collettivo sulla tua istanza e concede all'account amministratore sqlserver
le autorizzazioni per l'esecuzione.
2. Creazione di una chiave HMAC
Hai bisogno di una chiave HMAC per accedere al bucket Cloud Storage. Ti consigliamo di creare una chiave HMAC per un account di servizio e concedere le autorizzazioni dell'account di servizio ai bucket che vuoi utilizzare per l'inserimento collettivo. Per ulteriori informazioni e considerazioni sulla sicurezza, consulta Considerazioni sull'utilizzo dell'inserimento collettivo.
3. Crea dati di esempio da importare
Utilizzando un editor di testo, crea un file con codifica ANSI o UTF-16 che contenga i seguenti dati di esempio. Salva il file nel bucket Cloud Storage e assegnagli il nome
bulkinsert.bcp
, ad esempio.1,Elijah,Johnson,1962-03-21 2,Anya,Smith,1982-01-15 3,Daniel,Jones,1990-05-21
Crea un file di formato utilizzando i seguenti dati di esempio. Salva il file nel bucket Cloud Storage e assegnagli il nome
bulkinsert.fmt
, ad esempio. Per saperne di più sui file in formato XML e non XML in SQL Server, consulta Creare un file di formato.13.0 4 1 SQLCHAR 0 7 "," 1 PersonID "" 2 SQLCHAR 0 25 "," 2 FirstName SQL_Latin1_General_CP1_CI_AS 3 SQLCHAR 0 30 "," 3 LastName SQL_Latin1_General_CP1_CI_AS 4 SQLCHAR 0 11 "\r\n" 4 BirthDate ""
4. Esegui la stored procedure
Connettiti all'istanza utilizzando l'utente
sqlserver
e crea un database e una tabella di esempio per l'inserimento collettivo.USE MASTER GO -- create test database DROP DATABASE IF EXISTS bulktest CREATE DATABASE bulktest GO -- create table to insert USE bulktest; GO CREATE TABLE dbo.myfirstimport( PersonID smallint, FirstName varchar(25), LastName varchar(30), BirthDate Date );
Crea una chiave master del database, una credenziale con ambito database e un'origine dati esterna. Imposta l'identità come
S3 Access Key
.-- create master key CREATE MASTER KEY ENCRYPTION BY PASSWORD = 'YourStrongPassword1'; -- create database scoped credential CREATE DATABASE SCOPED CREDENTIAL GCSCredential WITH IDENTITY = 'S3 Access Key', SECRET = '<Access key>:<Secret>'; --create external data source CREATE EXTERNAL DATA SOURCE GCSStorage WITH ( TYPE = BLOB_STORAGE, LOCATION = 's3://storage.googleapis.com/bulk-insert-demo/' , CREDENTIAL = GCSCredential ); CREATE EXTERNAL DATA SOURCE GCSStorageError WITH ( TYPE = BLOB_STORAGE, LOCATION = 's3://storage.googleapis.com/bulk-insert-demo/' , CREDENTIAL = GCSCredential );
Esegui la stored procedure di inserimento collettivo per importare i dati di esempio.
EXEC msdb.dbo.gcloudsql_bulk_insert @database = 'bulktest', @schema = 'dbo', @object = 'myfirstimport', @file = 's3://storage.googleapis.com/bulk-insert-demo/bulkinsert.bcp', @formatfile = 's3://storage.googleapis.com/bulk-insert-demo/bulkinsert.fmt', @fieldquote = '"', @formatfiledatasource = 'GCSStorage', @ROWTERMINATOR = '0x0A', @fieldterminator = ',', @datasource ='GCSStorage', @errorfiledatasource = 'GCSStorageError', @errorfile = 's3://storage.googleapis.com/oom-data/bulkinsert/bulkinsert_sampleimport.log', @ordercolumnsjson = '[{"name": "PersonID","order": " asc "},{"name": "BirthDate","order": "asc"}]'
Visualizza i dati importati
Puoi visualizzare i dati importati utilizzando uno dei seguenti metodi:
Esegui questa query:
SELECT * FROM dbo.myfirstimport
Cloud SQL aggiunge un record di questa procedura al log degli errori SQL. Puoi visualizzare questi dati in Cloud Logging. Puoi visualizzare questi dati anche nei dati del log degli errori SQL su SQL Server Management Studio (SSMS).
Disattiva l'inserimento collettivo
Per disattivare l'inserimento collettivo, rimuovi il flag cloud sql enable bulk insert
:
gcloud sql instances patch INSTANCE_NAME --database-flags="cloudsql enable bulk insert"=off
Sostituisci INSTANCE_NAME
con il nome dell'istanza
in cui vuoi rimuovere l'inserimento collettivo.
In alternativa, puoi eseguire il comando seguente per cancellare tutti i flag di database:
gcloud sql instances patch INSTANCE_NAME --clear-database-flags
Sostituisci INSTANCE_NAME
con il nome dell'istanza
in cui vuoi rimuovere l'inserimento collettivo.
Usa importazione ed esportazione a righe
Quando esegui un'importazione o un'esportazione a righe, riduci il tempo necessario per il completamento dell'operazione e consenti l'importazione e l'esportazione di database di dimensioni superiori a 5 TB. Per ulteriori informazioni, vedi Esportazione e importazione con file BAK.
Verifica il database importato
Dopo il completamento di un'operazione di importazione, connettiti al tuo database ed esegui i comandi del database appropriati per assicurarti che i contenuti siano corretti. Ad esempio, connetti ed elenca database, tabelle e voci specifiche.
Limitazioni note
Per un elenco delle limitazioni note, consulta Problemi con l'importazione e l'esportazione dei dati.
Automazione delle operazioni di esportazione
Sebbene Cloud SQL non fornisca un modo integrato per automatizzare le esportazioni dei database, puoi creare il tuo strumento di automazione utilizzando diversi componenti Google Cloud. Per scoprire di più, consulta questo tutorial.
Risoluzione dei problemi
Risoluzione dei problemi relativi alle operazioni di importazione
Problema | Risoluzione dei problemi |
---|---|
HTTP Error 409: Operation failed because another operation was already in progress . |
Esiste già un'operazione in attesa per la tua istanza. È consentita una sola operazione alla volta. Prova a eseguire la richiesta dopo il completamento dell'operazione attuale. |
L'operazione di importazione sta richiedendo troppo tempo. | Troppe connessioni attive possono interferire con le operazioni di importazione.
Chiudi le operazioni inutilizzate. Controlla l'utilizzo di CPU e memoria della tua istanza Cloud SQL per assicurarti che siano disponibili molte risorse. Il modo migliore per garantire il numero massimo di risorse per l'importazione è riavviare l'istanza prima di iniziare l'operazione. Un riavvio:
|
Un'operazione di importazione può non riuscire quando uno o più utenti a cui viene fatto riferimento nel file di dump non esistono. | Prima di importare un file di dump, tutti gli utenti del database che sono proprietari di oggetti o a cui sono state concesse autorizzazioni per gli oggetti nel database di cui è stato eseguito il dump devono esistere nel database di destinazione. In caso contrario, l'operazione di importazione non riesce a ricreare gli oggetti con la proprietà o le autorizzazioni originali.
Crea gli utenti del database prima dell'importazione. |
LSN non corrispondente | L'ordine di importazione dei backup dei log delle transazioni non è corretto oppure la catena dei log delle transazioni è interrotta. Importa i backup dei log delle transazioni nello stesso ordine della tabella del set di backup. |
StopAt troppo presto | Questo errore indica che il primo log nel file di log delle transazioni è successivo al timestamp StopAt . Ad esempio, se il primo log nel file di log delle transazioni è 2023-09-01T12:00:00 e il campo StopAt ha il valore 2023-09-01T11:00:00, Cloud SQL restituisce questo errore.Assicurati di utilizzare il timestamp StopAt e il file di log delle transazioni corretti. |
Risoluzione dei problemi relativi alle operazioni di esportazione
Problema | Risoluzione dei problemi |
---|---|
HTTP Error 409: Operation failed because another operation was
already in progress. |
Esiste già un'operazione in attesa per la tua istanza. È consentita una sola operazione alla volta. Prova a eseguire la richiesta dopo il completamento dell'operazione attuale. |
HTTP Error 403: The service account does not have the required
permissions for the bucket. |
Assicurati che il bucket esista e che l'account di servizio per l'istanza Cloud SQL (che esegue l'esportazione) abbia il ruolo Storage Object Creator (roles/storage.objectCreator ) per consentire l'esportazione nel bucket. Consulta la pagina relativa ai ruoli IAM per Cloud Storage. |
Vuoi che le esportazioni siano automatizzate. | Cloud SQL non offre un modo per automatizzare le esportazioni.
Puoi creare il tuo sistema di esportazione automatizzato utilizzando prodotti Google Cloud come Cloud Scheduler, Pub/Sub e Cloud Functions, come in questo articolo sull' automazione dei backup. |
Passaggi successivi
- Scopri come importare ed esportare i dati utilizzando i file BAK.
- Scopri come importare i dati utilizzando i file di dump SQL.
- Scopri come attivare i backup automatici.
- Scopri come eseguire il ripristino dai backup.