Nesta página, mostramos como criar e iniciar jobs de transferência.
Para ver se a origem e o destino (também conhecidos como coletores) são compatíveis com o Serviço de transferência do Cloud Storage, consulte Fontes e coletores compatíveis.
Agentes e pools de agentes
Dependendo da origem e do destino, talvez seja necessário criar e configurar um pool de agentes e instalar agentes em uma máquina com acesso à origem ou destino.
As transferências do Amazon S3, Microsoft Azure, listas de URLs ou do Cloud Storage para o Cloud Storage não exigem agentes e pools de agentes.
As transferências com origem e/ou destino são um sistema de arquivos ou de armazenamento compatível com S3, e exigem agentes e pools de agentes. Consulte Gerenciar pools de agentes para instruções.
Antes de começar
Antes de configurar as transferências, verifique se você configurou o acesso:
- Para usuários e contas de serviço:
- Para os dados de origem e destino.
Se você estiver usando comandos da gcloud
,
instale a CLI gcloud.
Criar uma transferência
Não inclua informações sensíveis, como informações de identificação pessoal (PII, na sigla em inglês) ou dados de segurança no nome do job de transferência. Os nomes dos recursos podem ser propagados para os nomes de outros recursos do Google Cloud e podem ser expostos aos sistemas internos do Google fora do seu projeto.
Console do Google Cloud
Acesse a página Serviço de transferência do Cloud Storage no Console do Google Cloud.
Clique em Criar job de transferência. Será exibida a página Criar um job de transferência.
Escolha uma origem:
Cloud Storage
Sua conta de usuário precisa ter a permissão storage.buckets.get para selecionar intervalos de origem e de destino. Como alternativa, você pode digitar o nome do bucket diretamente. Para mais informações, consulte Como solucionar problemas de acesso.
Em Tipo de origem, selecione Cloud Storage.
Selecione o Tipo de destino.
Se o destino for o Cloud Storage, selecione o Modo de programação. As transferências em lote são executadas uma única vez ou de maneira programada. As transferências orientadas por eventos monitoram continuamente a origem e transferem os dados quando eles são adicionados ou modificados.
Para configurar uma transferência orientada por eventos, siga as instruções em Transferências orientadas por eventos.
Clique em Próxima etapa.
Selecione um bucket e (opcionalmente) uma pasta nesse bucket seguindo um destes procedimentos:
Insira um nome e um caminho do bucket do Cloud Storage no campo Bucket ou pasta sem o prefixo
gs://
. Por exemplo,my-test-bucket/path/to/files
. Para especificar um bucket do Cloud Storage em outro projeto, digite o nome exatamente no campo Nome do bucket.Para selecionar uma lista de buckets atuais nos projetos, clique em Procurar e selecione um bucket.
Ao clicar em Procurar, é possível selecionar buckets em outros projetos. Para isso, clique no ID do projeto e selecione o novo código e bucket.
Para criar um novo intervalo, clique em Criar novo intervalo.
Se for uma transferência orientada por eventos, insira o nome da assinatura do Pub/Sub, que tem o seguinte formato:
projects/PROJECT_NAME/subscriptions/SUBSCRIPTION_ID
- Se quiser, escolha
filtrar objetos por prefixo
ou data da última modificação. Se você tiver especificado uma pasta como local de origem, os filtros de prefixo
serão relativos a essa pasta. Por exemplo, se a origem for
my-test-bucket/path/
, um filtro de inclusão defile
vai incluir todos os arquivos que começam commy-test-bucket/path/file
. Clique em Próxima etapa.
Amazon S3
Armazenamento compatível com S3
Consulte Transferir do armazenamento compatível com S3 para o Cloud Storage.
Armazenamento de blobs do Microsoft Azure
Em Tipo de origem, selecione Armazenamento de blobs do Azure ou Data Lake Storage Gen2.
Clique em Próxima etapa.
Especifique o seguinte:
Nome da conta de armazenamento: o nome da conta de origem do Microsoft Azure Storage.
O nome da conta de armazenamento é exibido no portal do Microsoft Azure Storage em All services > Storage > Storage accounts.
Nome do contêiner: o nome do contêiner do Microsoft Azure Storage.
O nome do contêiner é exibido no portal do Microsoft Azure Storage em Storage Explorer > Blob Containers.
Assinatura de acesso compartilhado (SAS, na sigla em inglês): o token SAS do Microsoft Azure Storage criado a partir de uma política de acesso armazenada. Para mais informações, consulte Conceder acesso limitado aos recursos do Azure Storage usando assinaturas de acesso compartilhado (SAS, shared access signatures, em inglês).
O prazo de validade padrão para os tokens SAS é oito horas. Quando você criar o token SAS, defina um prazo de validade razoável para garantir que você possa concluir a transferência.
- Se quiser, escolha
filtrar objetos por prefixo
ou data da última modificação. Se você tiver especificado uma pasta como local de origem, os filtros de prefixo
serão relativos a essa pasta. Por exemplo, se a origem for
my-test-bucket/path/
, um filtro de inclusão defile
vai incluir todos os arquivos que começam commy-test-bucket/path/file
. Clique em Próxima etapa.
Sistema de arquivos
Em Tipo de origem, selecione Sistema de arquivos POSIX.
Selecione o Tipo de destino e clique em Próxima etapa.
Selecione um pool de agentes atual ou selecione Criar um pool de agentes e siga as instruções para criar um novo pool.
Especifique o caminho totalmente qualificado do diretório do sistema de arquivos.
Clique em Próxima etapa.
HDFS
Consulte Transferir do HDFS para o Cloud Storage.
Lista de URLs
Em Tipo de origem, selecione Lista de URLs e clique em Próxima etapa.
Em URL do arquivo TSV, insira o URL em um arquivo de valores separados por tabulação (TSV). Consulte Como criar uma lista de URLs para ver detalhes de como criar o arquivo TSV.
- Se quiser, escolha
filtrar objetos por prefixo
ou data da última modificação. Se você tiver especificado uma pasta como local de origem, os filtros de prefixo
serão relativos a essa pasta. Por exemplo, se a origem for
my-test-bucket/path/
, um filtro de inclusão defile
vai incluir todos os arquivos que começam commy-test-bucket/path/file
. Clique em Próxima etapa.
Escolha um destino:
Cloud Storage
No campo Bucket ou pasta, insira o bucket de destino e, opcionalmente, o nome da pasta ou clique em Procurar para selecionar um bucket de uma lista de buckets no seu projeto atual. Para criar um novo intervalo, clique em Criar novo intervalo.
Clique em Próxima etapa.
Escolha as configurações do job de transferência. Algumas opções só estão disponíveis para determinadas combinações de origem/coletor.
No campo Descrição, insira uma descrição da transferência. Como prática recomendada, insira uma descrição significativa e exclusiva para que você possa distinguir os jobs.
Em Opções de metadados, use as opções padrão ou clique em Ver e selecionar opções para especificar valores a todos os metadados compatíveis. Consulte Preservação de metadados para mais detalhes.
Em Quando substituir, selecione uma destas opções:
Se diferente: substitui os arquivos de destino se o arquivo de origem com o mesmo nome tiver valores de ETags ou de soma de verificação diferentes.
Sempre: sempre grava arquivos de destino quando o arquivo de origem tem o mesmo nome, mesmo que sejam idênticos.
Em Quando excluir, selecione uma destas opções:
Nunca: nunca exclua arquivos da origem ou do destino.
Excluir o arquivo da origem após a transferência: exclua os arquivos da origem após a transferência para o destino.
Excluir arquivos do destino se eles não estiverem na origem: se os arquivos no bucket do Cloud Storage de destino também não estiverem na origem, exclua os arquivos do Cloud Storage. bucket.
Essa opção garante que o bucket de destino do Cloud Storage corresponda exatamente à sua origem.
Em Opções de notificação, selecione o tópico do Pub/Sub e os eventos a serem notificados. Consulte Notificações do Pub/Sub para mais detalhes.
Clique em Próxima etapa.
Sistema de arquivos
Selecione um pool de agentes atual ou Criar um pool de agentes e siga as instruções para criar um novo pool.
Especifique o caminho do diretório de destino totalmente qualificado.
Clique em Próxima etapa.
Escolha as opções de programação:
Na lista suspensa Executar uma vez, selecione uma das seguintes opções:
Executar uma vez: executa uma única transferência, começando em um horário selecionado por você.
Executar todos os dias: executa uma transferência diária, a partir do horário selecionado.
É possível inserir uma Data de término opcional ou deixar a Data de término em branco para executar a transferência continuamente.
Executar toda semana: executa uma transferência semanal a partir de um horário selecionado.
Executar com frequência personalizada: executa uma transferência na frequência selecionada. É possível repetir a transferência em um intervalo regular de Horas, Dias ou Semanas.
É possível inserir uma Data de término opcional ou deixar a Data de término em branco para executar a transferência continuamente.
Na lista suspensa Iniciando agora, selecione uma das seguintes opções:
Iniciando agora: inicia a transferência depois que você clica em Criar.
A partir de: inicia a transferência na data e hora selecionadas. Clique em Agenda para ver uma agenda e selecionar a data de início.
Para criar o job de transferência, clique em Criar.
CLI gcloud
Para criar um novo job de transferência, use o comando
gcloud transfer jobs create
. A criação de um novo job inicia a transferência especificada, a menos que uma
programação ou --do-not-run
seja especificado.
gcloud transfer jobs create \
SOURCE DESTINATION
Em que:
SOURCE é a fonte de dados dessa transferência; O formato de cada origem é:
- Cloud Storage:
gs://BUCKET_NAME
. Para transferir de uma pasta específica, especifiquegs://BUCKET_NAME/FOLDER_PATH/
, incluindo a barra final. - Amazon S3:
s3://BUCKET_NAME/FOLDER_PATH
- Armazenamento compatível com S3:
s3://BUCKET_NAME
O nome do bucket é relativo ao endpoint. Por exemplo, se os dados estiverem emhttps://us-east-1.example.com/folder1/bucket_a
, insiras3://folder1/bucket_a
- Armazenamento do Microsoft Azure:
https://myaccount.blob.core.windows.net/CONTAINER_NAME
- Lista de URLs:
https://PATH_TO_URL_LIST
ouhttp://PATH_TO_URL_LIST
- Sistema de arquivos POSIX:
posix:///PATH
Precisa ser um caminho absoluto da raiz da máquina host do agente. - HDFS:
hdfs:///PATH
- Cloud Storage:
DESTINATION é um dos seguintes:
- Cloud Storage:
gs://BUCKET_NAME
. Para fazer a transferência para um diretório específico, especifiquegs://BUCKET_NAME/FOLDER_PATH/
, incluindo a barra final. - Sistema de arquivos POSIX:
posix:///PATH
Precisa ser um caminho absoluto da raiz da máquina host do agente.
- Cloud Storage:
Se a transferência exigir agentes, as seguintes opções estarão disponíveis:
--source-agent-pool
especifica o pool de agentes de origem a ser usado para esta transferência. Obrigatório para transferências originadas de um sistema de arquivos.--destination-agent-pool
especifica o pool de agentes de destino a ser usado nesta transferência. Obrigatório para transferências para um sistema de arquivos.--intermediate-storage-path
é o caminho para um bucket do Cloud Storage no formatogs://my-intermediary-bucket
. Obrigatório para transferências entre dois sistemas de arquivos. Consulte Criar um bucket do Cloud Storage como intermediário para ver detalhes sobre como criar o bucket intermediário.
As opções adicionais incluem:
--source-creds-file
especifica o caminho relativo para um arquivo local na máquina que inclui credenciais da AWS ou do Azure para a origem da transferência. Para informações sobre formatação de arquivos de credenciais, consulte a referência do TransferSpec.--do-not-run
impede que o Serviço de transferência do Cloud Storage execute o job após o envio do comando. Para executar o job, atualize-o para adicionar uma programação ou usejobs run
para iniciá-lo manualmente.--manifest-file
especifica o caminho para um arquivo CSV no Cloud Storage contendo uma lista de arquivos a serem transferidos da sua origem. Para formatar o arquivo de manifesto, consulte Transferir arquivos ou objetos específicos usando um manifesto.Informações do job: é possível especificar
--name
,--description
e--source-creds-file
.Programação: especifique
--schedule-starts
,--schedule-repeats-every
e--schedule-repeats-until
ou--do-not-run
.Condições de objeto: use condições para determinar quais objetos são transferidos. Elas incluem
--include-prefixes
e--exclude-prefixes
, além das condições baseadas em tempo em--include-modified-[before | after]-[absolute | relative]
. Se você especificou uma pasta com a origem, os filtros de prefixo são relativos a essa pasta. Consulte Filtrar objetos de origem por prefixo para mais informações.As condições do objeto não são compatíveis com transferências que envolvam sistemas de arquivos.
Opções de transferência: especifique se você quer substituir os arquivos de destino (
--overwrite-when=different
oualways
) e se quer excluir determinados arquivos durante ou após a transferência (--delete-from=destination-if-unique
ousource-after-transfer
), especificar quais valores de metadados preservar (--preserve-metadata
) e, opcionalmente, definir uma classe de armazenamento em objetos transferidos (--custom-storage-class
).Notificações: configure as notificações de Pub/Sub para transferências com
--notification-pubsub-topic
,--notification-event-types
e--notification-payload-format
.Cloud Logging: ative o Cloud Logging para transferências sem agente ou de transferências compatíveis de S3 com
--log-actions
e--log-action-states
. Consulte Cloud Logging para o Serviço de transferência do Cloud Storage para mais detalhes.
As transferências de fontes compatíveis com S3 também usam as seguintes opções:
--source-endpoint
especifica o endpoint do sistema de armazenamento. Por exemplo,s3.example.com
. Verifique com seu provedor a formatação correta. Não especifique o protocolo (http://
ouhttps://
).--source-signing-region
especifica uma região para assinar solicitações. Omita essa sinalização se o provedor de armazenamento não exigir uma região de assinatura.--source-auth-method
especifica o método de autenticação que será usado. Os valores válidos sãoAWS_SIGNATURE_V2
ouAWS_SIGNATURE_V4
. Consulte a documentação da Amazon SigV4 e SigV2 para mais informações.--source-request-model
especifica o estilo de endereçamento a ser usado. Os valores válidos sãoPATH_STYLE
ouVIRTUAL_HOSTED_STYLE
. O estilo do caminho usa o formatohttps://s3.example.com/BUCKET_NAME/KEY_NAME
. O estilo hospedado virtual usa o formato "https://BUCKET_NAME.s3.example.com/KEY_NAME".--source-network-protocol
especifica o protocolo de rede que os agentes precisam usar para esse job. Os valores válidos sãoHTTP
ouHTTPS
.--source-list-api
especifica a versão da API S3 de listagem que retorna objetos do bucket. Os valores válidos sãoLIST_OBJECTS
ouLIST_OBJECTS_V2
. Para mais informações, consulte a documentação de ListObjectsV2 e ListObjects da Amazon.
Para ver todas as opções, execute gcloud transfer jobs create --help
ou consulte a
documentação de referência de gcloud
.
Exemplos
Amazon S3 para Cloud Storage
Consulte Transferir do Amazon S3 para o Cloud Storage.
Armazenamento compatível com S3 para o Cloud Storage
Consulte Transferir do armazenamento compatível com S3 para o Cloud Storage.
Sistema de arquivos para o Cloud Storage
Consulte Transferir de um sistema de arquivos para o Cloud Storage.
Cloud Storage para o sistema de arquivos
Para transferir de um bucket do Cloud Storage para um sistema de arquivos, especifique o seguinte.
gcloud transfer jobs create \
gs://my-storage-bucket posix:///tmp/destination \
--destination-agent-pool=my-destination-agent-pool
Sistema de arquivos para sistema de arquivos
Para transferir entre dois sistemas de arquivos, é preciso especificar um pool de agentes de origem e um de destino, além de um bucket intermediário do Cloud Storage pelo qual os dados são transmitidos.
Saiba mais sobre esse bucket em Criar um bucket do Cloud Storage como intermediário.
Em seguida, especifique estes três recursos ao chamar transfer jobs create
:
gcloud transfer jobs create \
posix:///tmp/source/on/systemA posix:///tmp/destination/on/systemB \
--source-agent-pool=source_agent_pool \
--destination-agent-pool=destination_agent_pool \
--intermediate-storage-path=gs://my-intermediary-bucket
REST
Veja nas amostras a seguir como usar o Serviço de transferência do Cloud Storage com a API REST.
Ao configurar ou editar os jobs de transferência usando a API Storage Transfer Service, o horário precisa estar em UTC. Saiba como especificar a programação de um job de transferência em Programação.
Transferir entre buckets do Cloud Storage
Neste exemplo, você aprenderá a mover arquivos de um bucket do Cloud Storage para outro. Por exemplo, é possível migrar dados para um bucket em outro local.
Solicitação usando transferJobs create:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME" }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } }
200 OK { "transferJob": [ { "creationTime": "2015-01-01T01:01:00.000000000Z", "description": "YOUR DESCRIPTION", "name": "transferJobs/JOB_ID", "status": "ENABLED", "lastModificationTime": "2015-01-01T01:01:00.000000000Z", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME", }, "gcsDataSink": { "bucketName": "GCS_NEARLINE_SINK_NAME" }, "objectConditions": { "minTimeElapsedSinceLastModification": "2592000.000s" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } } ] }
Transferir do Amazon S3 para o Cloud Storage
Consulte Transferir do Amazon S3 para o Cloud Storage.
Transferência entre o Armazenamento de Blobs do Microsoft Azure e o Cloud Storage
Neste exemplo, você aprenderá a mover arquivos do Armazenamento do Microsoft Azure para um bucket do Cloud Storage usando um token de assinatura de acesso compartilhado (SAS, na sigla em inglês) do Microsoft Azure Storage.
Para mais informações sobre o Microsoft Azure Storage SAS, consulte Conceder acesso limitado aos recursos do Azure Storage usando assinaturas de acesso compartilhado (SAS, na sigla em inglês).
Antes de começar, leia Configurar o acesso ao Armazenamento do Microsoft Azure e Preços para entender as implicações de mover dados do Armazenamento do Microsoft Azure para o Cloud Storage.
Solicitação usando transferJobs create:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 14, "month": 2, "year": 2020 }, "scheduleEndDate": { "day": 14 "month": 2, "year": 2020 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "azureBlobStorageDataSource": { "storageAccount": "AZURE_SOURCE_NAME", "azureCredentials": { "sasToken": "AZURE_SAS_TOKEN", }, "container": "AZURE_CONTAINER", }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME" } } }
200 OK { "transferJob": [ { "creationTime": "2020-02-14T01:01:00.000000000Z", "description": "YOUR DESCRIPTION", "name": "transferJobs/JOB_ID", "status": "ENABLED", "lastModificationTime": "2020-02-14T01:01:00.000000000Z", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 14 "month": 2, "year": 2020 }, "scheduleEndDate": { "day": 14, "month": 2, "year": 2020 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "azureBlobStorageDataSource": { "storageAccount": "AZURE_SOURCE_NAME", "azureCredentials": { "sasToken": "AZURE_SAS_TOKEN", }, "container": "AZURE_CONTAINER", }, "objectConditions": {}, "transferOptions": {} } } ] }
Transferência de um sistema de arquivos
Consulte Transferir de um sistema de arquivos para o Cloud Storage.
Como especificar caminhos de origem e de destino
Os caminhos de origem e destino permitem especificar os diretórios de
origem e de destino ao transferir dados para o bucket do Cloud Storage. Por exemplo,
considere que você tem os arquivos file1.txt
e file2.txt
e um bucket do Cloud Storage
chamado B
. Se você definir um caminho de destino chamado my-stuff
, quando a
transferência terminar, os arquivos estarão em gs://B/my-stuff/file1.txt
e
gs://B/my-stuff/file2.txt
.
Como especificar um caminho de origem
Para especificar um caminho de origem ao criar um job de transferência, adicione um campo path
ao
campo gcsDataSource
na sua
especificação TransferSpec
:
{ gcsDataSource: { bucketName: "SOURCE_BUCKET", path: "SOURCE_PATH/", }, }
Neste exemplo:
- SOURCE_BUCKET: o bucket do Cloud Storage de origem.
- SOURCE_PATH: o caminho do Cloud Storage de origem.
Como especificar um caminho de destino
Para especificar uma pasta de destino ao criar um job de transferência, adicione um campo
path
ao campo gcsDataSink
em sua
especificação TransferSpec
:
{ gcsDataSink: { bucketName: "DESTINATION_BUCKET", path: "DESTINATION_PATH/", }, }
Neste exemplo:
- DESTINATION_BUCKET: o bucket do Cloud Storage de destino
- DESTINATION_PATH: o caminho de destino no Cloud Storage.
Exemplo de solicitação completa
Veja este exemplo de solicitação completa:
POST https://storagetransfer.googleapis.com/v1/transferJobs { "description": "YOUR DESCRIPTION", "status": "ENABLED", "projectId": "PROJECT_ID", "schedule": { "scheduleStartDate": { "day": 1, "month": 1, "year": 2015 }, "startTimeOfDay": { "hours": 1, "minutes": 1 } }, "transferSpec": { "gcsDataSource": { "bucketName": "GCS_SOURCE_NAME", "path": "GCS_SOURCE_PATH", }, "gcsDataSink": { "bucketName": "GCS_SINK_NAME", "path": "GCS_SINK_PATH", }, "objectConditions": { "minTimeElapsedSinceLastModification": "2592000s" }, "transferOptions": { "deleteObjectsFromSourceAfterTransfer": true } } }
Bibliotecas de cliente
Veja nas amostras a seguir como usar o Serviço de transferência do Cloud Storage de maneira programática com Go, Java, Node.js e Python.
Ao configurar ou editar jobs de transferência de maneira programática, o horário precisa estar em UTC. Saiba como especificar a programação de um job de transferência em Programação.
Para mais informações sobre as bibliotecas de cliente do Serviço de transferência do Cloud Storage, consulte Primeiros passos com as bibliotecas de cliente do Serviço de transferência do Cloud Storage.
Transferir entre buckets do Cloud Storage
Neste exemplo, você aprenderá a mover arquivos de um bucket do Cloud Storage para outro. Por exemplo, é possível migrar dados para um bucket em outro local.
Go
Java
Procurando amostras mais antigas? Consulte o Guia de migração do serviço de transferência do Cloud Storage.
Node.js
Python
Procurando amostras mais antigas? Consulte o Guia de migração do serviço de transferência do Cloud Storage.
Transferir do Amazon S3 para o Cloud Storage
Consulte Transferir do Amazon S3 para o Cloud Storage.
Transferência entre o Armazenamento de Blobs do Microsoft Azure e o Cloud Storage
Neste exemplo, você aprenderá a mover arquivos do Armazenamento do Microsoft Azure para um bucket do Cloud Storage usando um token de assinatura de acesso compartilhado (SAS, na sigla em inglês) do Microsoft Azure Storage.
Para mais informações sobre o Microsoft Azure Storage SAS, consulte Conceder acesso limitado aos recursos do Azure Storage usando assinaturas de acesso compartilhado (SAS, na sigla em inglês).
Antes de começar, leia Configurar o acesso ao Armazenamento do Microsoft Azure e Preços para entender as implicações de mover dados do Armazenamento do Microsoft Azure para o Cloud Storage.
Go
Para saber como instalar e usar a biblioteca de cliente do Serviço de transferência do Cloud Storage, consulte Bibliotecas de clientes do Serviço de transferência do Cloud Storage. Para mais informações, consulte a Documentação de referência da API Go do Serviço de transferência do Cloud Storage.
Para autenticar o Serviço de transferência do Cloud Storage, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Java
Para saber como instalar e usar a biblioteca de cliente do Serviço de transferência do Cloud Storage, consulte Bibliotecas de clientes do Serviço de transferência do Cloud Storage. Para mais informações, consulte a Documentação de referência da API Java do Serviço de transferência do Cloud Storage.
Para autenticar o Serviço de transferência do Cloud Storage, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Node.js
Para saber como instalar e usar a biblioteca de cliente do Serviço de transferência do Cloud Storage, consulte Bibliotecas de clientes do Serviço de transferência do Cloud Storage. Para mais informações, consulte a Documentação de referência da API Node.js do Serviço de transferência do Cloud Storage.
Para autenticar o Serviço de transferência do Cloud Storage, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar e usar a biblioteca de cliente do Serviço de transferência do Cloud Storage, consulte Bibliotecas de clientes do Serviço de transferência do Cloud Storage. Para mais informações, consulte a Documentação de referência da API Python do Serviço de transferência do Cloud Storage.
Para autenticar o Serviço de transferência do Cloud Storage, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Transferência de um sistema de arquivos
Consulte Transferir de um sistema de arquivos para o Cloud Storage.