Interoperabilità con altri fornitori di spazio di archiviazione

Cloud Storage è compatibile con altre piattaforme di archiviazione di oggetti, per consentirti di integrare perfettamente i dati provenienti da origini diverse. Questa pagina descrive gli strumenti di Cloud Storage che puoi utilizzare per gestire i dati degli oggetti multipiattaforma.

API XML

L'API XML di Cloud Storage è interoperabile con alcuni strumenti e librerie compatibili con servizi come Amazon Simple Storage Service (Amazon S3). Per utilizzare questi strumenti e librerie con Cloud Storage, modifica l'endpoint di richiesta utilizzato dallo strumento o dalla libreria nell'URI Cloud Storagehttps://storage.googleapis.com, quindi configura lo strumento o la libreria in modo che utilizzi le chiavi HMAC di Cloud Storage. Per istruzioni dettagliate su come iniziare, consulta Migrazione semplice da Amazon Simple Storage Service (Amazon S3).

Autenticazione con il processo di firma V4

Il processo di firma V4 consente di creare richieste firmate all'API XML di Cloud Storage. Quando esegui il processo di firma V4, crei una firma che può essere utilizzata nell'intestazione di una richiesta per l'autenticazione. Puoi eseguire il processo di firma utilizzando una firma RSA o il tuo flusso di lavoro Amazon S3 e le credenziali HMAC. Per maggiori dettagli sull'autenticazione delle richieste, consulta Firme.

Google Cloud CLI

gcloud CLI è lo strumento a riga di comando preferito per accedere a Cloud Storage. Consente inoltre di accedere e utilizzare altri servizi di archiviazione sul cloud che utilizzano l'autenticazione HMAC, come Amazon S3. Dopo aver aggiunto le credenziali Amazon S3 a ~/.aws/credentials, puoi iniziare a utilizzare i comandi gcloud storage per gestire gli oggetti nei bucket Amazon S3. Ad esempio:

  • Il seguente comando elenca gli oggetti nel bucket Amazon S3 my-aws-bucket:

    gcloud storage ls s3://my-aws-bucket
  • Il seguente comando sincronizza i dati tra un bucket Amazon S3 e un bucket Cloud Storage:

    gcloud storage rsync s3://my-aws-bucket gs://example-bucket --delete-unmatched-destination-objects --recursive

Per ulteriori informazioni, inclusi i dettagli su come ottimizzare questa sincronizzazione, consulta la documentazione di gcloud storage rsync.

Certificato non valido dai nomi dei bucket Amazon S3 contenenti punti

Se tenti di utilizzare gcloud CLI per accedere a un bucket Amazon S3 che contiene un punto nel nome, potresti visualizzare un errore invalid certificate. Questo perché Amazon S3 non supporta gli URL dei bucket in hosting virtuale con punti nel nome. Quando lavori con le risorse Amazon S3, puoi configurare gcloud CLI in modo da tentare di utilizzare gli URL dei bucket in stile percorso impostando la proprietà storage/s3_endpoint_url come segue:

storage/s3_endpoint_url https://s3.REGION_CODE.amazonaws.com

Dove REGION_CODE è la regione contenente il bucket che stai richiedendo. Ad esempio, us-east-2.

Puoi modificare la proprietà storage/s3_endpoint_url in uno dei seguenti modi:

Riga di comando gsutil

gsutil è uno strumento legacy per accedere a Cloud Storage dalla riga di comando. Ti consente inoltre di accedere e utilizzare altri servizi di spazio di archiviazione sul cloud che utilizzano l'autenticazione HMAC, come Amazon S3. Dopo aver aggiunto le credenziali Amazon S3 a ~/.aws/credentials, puoi iniziare a utilizzare gsutil per gestire gli oggetti nei bucket Amazon S3. Ad esempio:

  • Il seguente comando elenca gli oggetti nel bucket Amazon S3 my-aws-bucket:

    gsutil ls s3://my-aws-bucket
  • Il seguente comando sincronizza i dati tra un bucket Amazon S3 e un bucket Cloud Storage:

    gsutil rsync -d -r s3://my-aws-bucket gs://example-bucket

Per ulteriori informazioni, inclusi i dettagli su come configurare gsutil per ottimizzare questa sincronizzazione, consulta la documentazione relativa a gsutil rsync.

Certificato non valido dai nomi dei bucket Amazon S3 contenenti punti

Se tenti di utilizzare gsutil per accedere a un bucket Amazon S3 che contiene un punto nel nome, potresti ricevere un errore invalid certificate. Questo perché Amazon S3 non supporta gli URL dei bucket in hosting virtuale con punti nel nome. Quando lavori con le risorse Amazon S3, puoi configurare gsutil per tentare di utilizzare URL dei bucket in stile percorso aggiungendo la seguente voce al file di configurazione.boto per gsutil:

[s3]
calling_format = boto.s3.connection.OrdinaryCallingFormat

Importazione di dati con Storage Transfer Service

Storage Transfer Service consente di importare grandi quantità di dati online in Cloud Storage da bucket Amazon S3, container di archiviazione BLOB di Microsoft Azure e posizioni HTTP/HTTPS generali. Storage Transfer Service può essere utilizzato per pianificare trasferimenti ricorrenti, eliminare gli oggetti di origine e selezionare gli oggetti da trasferire.

Inoltre, se utilizzi le notifiche di eventi Amazon S3, puoi configurare trasferimenti basati su eventi di Storage Transfer Service per ascoltare queste notifiche e mantenere automaticamente sincronizzato un bucket Cloud Storage con un'origine Amazon S3.

Passaggi successivi

Amazon Simple Storage ServiceDKIM e Amazon S3 sono marchi di Amazon.com, Inc. o delle sue società consociate negli Stati Uniti e/o in altri paesi.