Trasferire dati tra file system

Questa pagina mostra come trasferire dati tra due file system POSIX. I casi d'uso comuni includono:

  • Burst to cloud and Hybrid HPC: trasferisci rapidamente set di dati di grandi dimensioni da on-premise al cloud per l'elaborazione.
  • Migrazione e sincronizzazione su Filestore: esegui la migrazione o la sincronizzazione dei dati da un file system on-premise a Filestore.
  • Trasferimento di file gestito:trasferisci i dati in modo sicuro e affidabile tra data center o tra due file system nel cloud.

Linee guida sul rendimento dei trasferimenti

Le seguenti linee guida possono aiutarti a massimizzare le prestazioni durante i trasferimenti da file system a file system.

Deployment dell'agente

In generale, consigliamo di utilizzare tre agenti in ciascuno dei pool di agenti di origine e di destinazione. Monitora il trasferimento e aggiungi altri agenti, se necessario. Ogni agente ha bisogno di 4 vCPU e 8 GiB di RAM.

Se stai eseguendo la migrazione a un'istanza di Filestore, Filestore consiglia di utilizzare il tipo di istanza n2-standard-8 per ogni agente. Specifica nconnect=2 quando installi l'istanza su una VM di Compute Engine. Consulta le linee guida sulle prestazioni di Filestore per ulteriori informazioni su come ottimizzare e testare le prestazioni delle istanze.

Trasferimento di grandi quantità di file di piccole dimensioni

Per migliorare le prestazioni durante il trasferimento di un numero elevato di file di piccole dimensioni, ti consigliamo di suddividere i file in più directory e di evitare una singola directory con milioni di file.

Prima di iniziare

Prima di poter eseguire le attività descritte in questa pagina, completa i passaggi preliminari.

crea pool di agenti e installa gli agenti

Per trasferimenti da file system a file system, devi creare pool di agenti e agenti per i file system di origine e di destinazione. Gli agenti per il pool di agenti di origine devono essere installati su macchine o VM che hanno accesso al file system di origine. Gli agenti per il pool di agenti di destinazione devono essere installati su macchine o VM che hanno accesso al file system di destinazione.

Non includere informazioni sensibili come informazioni che consentono l'identificazione personale o dati di sicurezza nel prefisso dell'ID agente o nel nome del pool di agenti. I nomi delle risorse possono essere propagati ai nomi di altre risorse Google Cloud ed essere esposti ai sistemi interni di Google al di fuori del tuo progetto.

Crea un pool di agenti di origine

Crea un pool di agenti di origine utilizzando uno dei seguenti metodi:

Interfaccia a riga di comando gcloud

Crea un pool di agenti di origine eseguendo:

gcloud transfer agent-pools create SOURCE_AGENT_POOL

Sostituisci SOURCE_AGENT_POOL con il nome che vuoi assegnare al pool di agenti di origine.

Console Google Cloud

  1. Nella console Google Cloud, vai alla pagina Pool di agenti.

    Vai a Pool di agenti

    Viene visualizzata la pagina Pool di agenti, in cui sono elencati i pool di agenti esistenti.

  2. Fai clic su Crea un altro pool.

  3. Inserisci un nome per il pool.

  4. Fai clic su Crea.

Installa gli agenti per il pool di agenti di origine

Installa gli agenti per il pool di agenti di origine su una macchina o VM che ha accesso al file system di origine:

Interfaccia a riga di comando gcloud

Installa gli agenti per il pool di agenti di origine eseguendo:

gcloud transfer agents install --pool=SOURCE_AGENT_POOL --count=NUMBER_OF_AGENTS \
  --mount-directories=MOUNT_DIRECTORIES

Sostituisci quanto segue:

  • SOURCE_AGENT_POOL con il nome del pool di agenti di origine.
  • NUMBER_OF_AGENTS con il numero di agenti che vuoi installare per il pool di agenti di origine. Per determinare il numero ottimale di agenti per il tuo ambiente, consulta Requisiti e best practice degli agenti.
  • MOUNT_DIRECTORIES con un elenco separato da virgole di directory del file system di origine da cui eseguire la copia. L'omissione di questo flag monta l'intero file system, il che potrebbe rappresentare un rischio per la sicurezza.

Console Google Cloud

  1. Nella console Google Cloud, vai alla pagina Pool di agenti.

    Vai a Pool di agenti

    Viene visualizzata la pagina Pool di agenti, in cui sono elencati i pool di agenti esistenti.

  2. Fai clic sul nome del pool di agenti di origine che hai appena creato.

  3. Nella scheda Agenti, fai clic su Installa agente.

  4. Segui le istruzioni nella console Google Cloud per installare Docker e avviare l'agente.

Crea un pool di agenti di destinazione e installa gli agenti

Ripeti i passaggi precedenti per creare un pool di agenti di destinazione e installare gli agenti.

Crea un bucket Cloud Storage come intermediario

I trasferimenti da file system a file system richiedono un bucket Cloud Storage come intermediario per il trasferimento di dati.

  1. Crea un bucket di classe Standard di Cloud Storage con le seguenti impostazioni:

    • Crittografia: puoi specificare una chiave di crittografia gestita dal cliente (CMEK). In caso contrario, viene utilizzata una chiave di crittografia gestita da Google.
    • Controllo delle versioni degli oggetti, Blocco di bucket e blocchi predefiniti degli oggetti: mantieni queste funzionalità disabilitate.
  2. Concedi autorizzazioni e ruoli utilizzando uno dei seguenti metodi:

    • Concedi all'account di servizio Storage Transfer Service il ruolo Amministratore Storage (roles/storage.admin) per il bucket.
    • Utilizza gcloud transfer authorize per autorizzare il tuo account per tutte le funzionalità di Storage Transfer Service. Questo comando concede le autorizzazioni di amministratore Storage a livello di progetto:

      gcloud transfer authorize --add-missing
      

Creare un job di trasferimento

Interfaccia a riga di comando gcloud

Per creare un trasferimento dal file system di origine al file system di destinazione, esegui

gcloud transfer jobs create SOURCE_DIRECTORY DESTINATION_DIRECTORY \
    --source-agent-pool=SOURCE_AGENT_POOL \
    --destination-agent-pool=DESTINATION_AGENT_POOL \
    --intermediate-storage-path= gs://STORAGE_BUCKET/FOLDER/

Sostituisci le seguenti variabili:

  • SOURCE_DIRECTORY con il percorso della directory di origine.
  • DESTINATION_DIRECTORY con il percorso della directory di destinazione.
  • SOURCE_AGENT_POOL con il nome del pool di agenti di origine.
  • DESTINATION_AGENT_POOL con il nome del pool di agenti di destinazione.
  • STORAGE_BUCKET con il nome del bucket Cloud Storage.
  • FOLDER con il nome della cartella in cui vuoi trasferire i dati.

Quando avvii un job di trasferimento, il sistema calcola innanzitutto i dati nell'origine e nella destinazione per determinare quali dati di origine sono nuovi o aggiornati dopo il trasferimento precedente. Vengono trasferiti solo i nuovi dati.

Librerie client

Go


import (
	"context"
	"fmt"
	"io"

	storagetransfer "cloud.google.com/go/storagetransfer/apiv1"
	"cloud.google.com/go/storagetransfer/apiv1/storagetransferpb"
)

func transferFromPosix(w io.Writer, projectID string, sourceAgentPoolName string, rootDirectory string, gcsSinkBucket string) (*storagetransferpb.TransferJob, error) {
	// Your project id
	// projectId := "myproject-id"

	// The agent pool associated with the POSIX data source. If not provided, defaults to the default agent
	// sourceAgentPoolName := "projects/my-project/agentPools/transfer_service_default"

	// The root directory path on the source filesystem
	// rootDirectory := "/directory/to/transfer/source"

	// The ID of the GCS bucket to transfer data to
	// gcsSinkBucket := "my-sink-bucket"

	ctx := context.Background()
	client, err := storagetransfer.NewClient(ctx)
	if err != nil {
		return nil, fmt.Errorf("storagetransfer.NewClient: %w", err)
	}
	defer client.Close()

	req := &storagetransferpb.CreateTransferJobRequest{
		TransferJob: &storagetransferpb.TransferJob{
			ProjectId: projectID,
			TransferSpec: &storagetransferpb.TransferSpec{
				SourceAgentPoolName: sourceAgentPoolName,
				DataSource: &storagetransferpb.TransferSpec_PosixDataSource{
					PosixDataSource: &storagetransferpb.PosixFilesystem{RootDirectory: rootDirectory},
				},
				DataSink: &storagetransferpb.TransferSpec_GcsDataSink{
					GcsDataSink: &storagetransferpb.GcsData{BucketName: gcsSinkBucket},
				},
			},
			Status: storagetransferpb.TransferJob_ENABLED,
		},
	}

	resp, err := client.CreateTransferJob(ctx, req)
	if err != nil {
		return nil, fmt.Errorf("failed to create transfer job: %w", err)
	}
	if _, err = client.RunTransferJob(ctx, &storagetransferpb.RunTransferJobRequest{
		ProjectId: projectID,
		JobName:   resp.Name,
	}); err != nil {
		return nil, fmt.Errorf("failed to run transfer job: %w", err)
	}
	fmt.Fprintf(w, "Created and ran transfer job from %v to %v with name %v", rootDirectory, gcsSinkBucket, resp.Name)
	return resp, nil
}

Java

import com.google.storagetransfer.v1.proto.StorageTransferServiceClient;
import com.google.storagetransfer.v1.proto.TransferProto;
import com.google.storagetransfer.v1.proto.TransferTypes.GcsData;
import com.google.storagetransfer.v1.proto.TransferTypes.PosixFilesystem;
import com.google.storagetransfer.v1.proto.TransferTypes.TransferJob;
import com.google.storagetransfer.v1.proto.TransferTypes.TransferSpec;
import java.io.IOException;

public class TransferBetweenPosix {

  public static void main(String[] args) throws IOException {
    // TODO(developer): Replace these variables before running the sample.

    // Your project id
    String projectId = "my-project-id";

    // The agent pool associated with the POSIX data source. If not provided, defaults to the
    // default agent
    String sourceAgentPoolName = "projects/my-project-id/agentPools/transfer_service_default";

    // The agent pool associated with the POSIX data sink. If not provided, defaults to the default
    // agent
    String sinkAgentPoolName = "projects/my-project-id/agentPools/transfer_service_default";

    // The root directory path on the source filesystem
    String rootDirectory = "/directory/to/transfer/source";

    // The root directory path on the sink filesystem
    String destinationDirectory = "/directory/to/transfer/sink";

    // The ID of the GCS bucket for intermediate storage
    String bucketName = "my-intermediate-bucket";

    transferBetweenPosix(
        projectId,
        sourceAgentPoolName,
        sinkAgentPoolName,
        rootDirectory,
        destinationDirectory,
        bucketName);
  }

  public static void transferBetweenPosix(
      String projectId,
      String sourceAgentPoolName,
      String sinkAgentPoolName,
      String rootDirectory,
      String destinationDirectory,
      String bucketName)
      throws IOException {

    TransferJob transferJob =
        TransferJob.newBuilder()
            .setProjectId(projectId)
            .setTransferSpec(
                TransferSpec.newBuilder()
                    .setSinkAgentPoolName(sinkAgentPoolName)
                    .setSourceAgentPoolName(sourceAgentPoolName)
                    .setPosixDataSource(
                        PosixFilesystem.newBuilder().setRootDirectory(rootDirectory).build())
                    .setPosixDataSink(
                        PosixFilesystem.newBuilder().setRootDirectory(destinationDirectory).build())
                    .setGcsIntermediateDataLocation(
                        GcsData.newBuilder().setBucketName(bucketName).build())
                    .build())
            .setStatus(TransferJob.Status.ENABLED)
            .build();

    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the "close" method on the client to safely clean up any remaining background resources,
    // or use "try-with-close" statement to do this automatically.
    try (StorageTransferServiceClient storageTransfer = StorageTransferServiceClient.create()) {

      // Create the transfer job
      TransferJob response =
          storageTransfer.createTransferJob(
              TransferProto.CreateTransferJobRequest.newBuilder()
                  .setTransferJob(transferJob)
                  .build());

      System.out.println(
          "Created and ran a transfer job from "
              + rootDirectory
              + " to "
              + destinationDirectory
              + " with name "
              + response.getName());
    }
  }
}

Node.js


// Imports the Google Cloud client library
const {
  StorageTransferServiceClient,
} = require('@google-cloud/storage-transfer');

/**
 * TODO(developer): Uncomment the following lines before running the sample.
 */
// Your project id
// const projectId = 'my-project'

// The agent pool associated with the POSIX data source. Defaults to the default agent
// const sourceAgentPoolName = 'projects/my-project/agentPools/transfer_service_default'

// The agent pool associated with the POSIX data sink. Defaults to the default agent
// const sinkAgentPoolName = 'projects/my-project/agentPools/transfer_service_default'

// The root directory path on the source filesystem
// const rootDirectory = '/directory/to/transfer/source'

// The root directory path on the sink filesystem
// const destinationDirectory = '/directory/to/transfer/sink'

// The ID of the GCS bucket for intermediate storage
// const bucketName = 'my-intermediate-bucket'

// Creates a client
const client = new StorageTransferServiceClient();

/**
 * Creates a request to transfer from the local file system to the sink bucket
 */
async function transferDirectory() {
  const createRequest = {
    transferJob: {
      projectId,
      transferSpec: {
        sourceAgentPoolName,
        sinkAgentPoolName,
        posixDataSource: {
          rootDirectory,
        },
        posixDataSink: {
          rootDirectory: destinationDirectory,
        },
        gcsIntermediateDataLocation: {
          bucketName,
        },
      },
      status: 'ENABLED',
    },
  };

  // Runs the request and creates the job
  const [transferJob] = await client.createTransferJob(createRequest);

  const runRequest = {
    jobName: transferJob.name,
    projectId: projectId,
  };

  await client.runTransferJob(runRequest);

  console.log(
    `Created and ran a transfer job from '${rootDirectory}' to '${destinationDirectory}' with name ${transferJob.name}`
  );
}

transferDirectory();

Python

from google.cloud import storage_transfer

def transfer_between_posix(
    project_id: str,
    description: str,
    source_agent_pool_name: str,
    sink_agent_pool_name: str,
    root_directory: str,
    destination_directory: str,
    intermediate_bucket: str,
):
    """Creates a transfer between POSIX file systems."""

    client = storage_transfer.StorageTransferServiceClient()

    # The ID of the Google Cloud Platform Project that owns the job
    # project_id = 'my-project-id'

    # A useful description for your transfer job
    # description = 'My transfer job'

    # The agent pool associated with the POSIX data source.
    # Defaults to 'projects/{project_id}/agentPools/transfer_service_default'
    # source_agent_pool_name = 'projects/my-project/agentPools/my-agent'

    # The agent pool associated with the POSIX data sink.
    # Defaults to 'projects/{project_id}/agentPools/transfer_service_default'
    # sink_agent_pool_name = 'projects/my-project/agentPools/my-agent'

    # The root directory path on the source filesystem
    # root_directory = '/directory/to/transfer/source'

    # The root directory path on the destination filesystem
    # destination_directory = '/directory/to/transfer/sink'

    # The Google Cloud Storage bucket for intermediate storage
    # intermediate_bucket = 'my-intermediate-bucket'

    transfer_job_request = storage_transfer.CreateTransferJobRequest(
        {
            "transfer_job": {
                "project_id": project_id,
                "description": description,
                "status": storage_transfer.TransferJob.Status.ENABLED,
                "transfer_spec": {
                    "source_agent_pool_name": source_agent_pool_name,
                    "sink_agent_pool_name": sink_agent_pool_name,
                    "posix_data_source": {
                        "root_directory": root_directory,
                    },
                    "posix_data_sink": {
                        "root_directory": destination_directory,
                    },
                    "gcs_intermediate_data_location": {
                        "bucket_name": intermediate_bucket
                    },
                },
            }
        }
    )

    result = client.create_transfer_job(transfer_job_request)
    print(f"Created transferJob: {result.name}")

Gestisci bucket intermedi

Al termine di un job di trasferimento, Storage Transfer Service salva i log di trasferimento che sono stati trasferiti e i dati non sono stati trasferiti nel bucket. Dopo il trasferimento, le attività di pulizia vengono avviate automaticamente per eliminare i dati intermedi. In alcuni casi, le attività di pulizia non riescono a eliminare tutti i dati nel bucket. Per eliminare i dati che non vengono cancellati durante la pulizia, segui le istruzioni riportate di seguito per eliminare i dati manualmente o impostare una regola del ciclo di vita per l'eliminazione automatica dei dati.

Pulizia manuale

Elimina i dati dal bucket intermediario eseguendo i comandi gsutil che seguono in base al tipo di dati che vuoi eliminare.

  • Per cancellare i dati nel bucket intermediario che non sono stati eliminati durante la pulizia, esegui questo comando:

    gsutil -m rm gs://STORAGE_BUCKET/PREFIX**
    
  • Per eliminare tutti i dati, inclusi i log di trasferimento, specifica la radice del bucket utilizzando il carattere jolly match-all (*).

    gsutil -m rm gs://STORAGE_BUCKET/*
    
  • Per eliminare il bucket, esegui questo comando:

    gsutil -m rm gs://STORAGE_BUCKET
    

Sostituisci le seguenti variabili:

  • STORAGE_BUCKET con il nome del bucket intermediario.

  • PREFIX con il nome della cartella in cui sono stati trasferiti i dati all'interno del bucket intermediario.

Imposta una regola del ciclo di vita

Per eliminare i dati che non vengono cancellati dal ciclo di pulizia automatica, imposta una regola del ciclo di vita per il bucket Cloud Storage. Utilizza la condizione age per cancellare i dati intermedi nel bucket specificando un periodo più lungo rispetto al job di trasferimento più lungo che utilizza il bucket come intermediario. Se la condizione di età specificata è più breve del tempo necessario per scaricare il file dal bucket dell'intermediario alla destinazione, il trasferimento del file non va a buon fine.

Facoltativamente, utilizza la condizione matchesPrefix per cancellare i dati nella cartella specificata per il bucket intermedio. Per eliminare i log di trasferimento insieme ai dati del bucket, la condizione matchesPrefix non è obbligatoria.

Conservazione dei metadati dei file

Per conservare i metadati dei file, inclusi UID numerico, GID, MODE e link simbolici:

Interfaccia a riga di comando gcloud

Utilizza il campo --preserve-metadata per specificare il comportamento di conservazione per questo trasferimento. Le opzioni applicabili ai trasferimenti di file system sono: gid, mode, symlink, uid.

API REST

Specifica le opzioni appropriate in un oggetto metadataOptions.

Per ulteriori informazioni, consulta Conservare gli attributi POSIX facoltativi.

Trasferimento di esempio con gcloud CLI

In questo esempio, trasferiamo i dati dalla directory /tmp/datasource su VM1 a /tmp/destination su VM2.

  1. Configura l'origine del trasferimento.

    1. Crea il pool di agenti di origine:

      gcloud transfer agent-pools create source_agent_pool
      
    2. Su VM1, installa gli agenti per source_agent_pool eseguendo:

      gcloud transfer agents install --pool=source_agent_pool \
          --count=1 \
          --mount-directories="/tmp/datasource"
      
  2. Configura la destinazione del trasferimento.

    1. Crea il pool di agenti di destinazione:

      gcloud transfer agent-pools create destination_agent_pool
      
    2. Su VM2, installa gli agenti per destination_agent_pool eseguendo:

      gcloud transfer agents install --pool=destination_agent_pool \
          --count=3 \
          --mount-directories="/tmp/destination"
      
  3. Creare un bucket Cloud Storage intermediario.

    1. Crea un bucket denominato my-intermediary-bucket:

      gsutil mb gs://my-intermediary-bucket
      
    2. Autorizza il tuo account per tutte le funzionalità di Storage Transfer Service eseguendo:

      gcloud transfer authorize --add-missing
      
  4. Crea un job di trasferimento eseguendo:

    gcloud transfer jobs create posix:///tmp/datasource posix:///tmp/destination \
        --source-agent-pool=source_agent_pool \
        --destination-agent-pool=destination_agent_pool \
        --intermediate-storage-path=gs://my-intermediary-bucket
    

Passaggi successivi