Cloud Storage는 다른 객체 스토리지 플랫폼과 호환되므로, 다른 소스의 데이터를 원활하게 통합할 수 있습니다. 이 페이지에서는 크로스 플랫폼 객체 데이터 관리를 위해 사용할 수 있는 Cloud Storage 도구에 대해 설명합니다.
XML API
Cloud Storage XML API는 Amazon Simple Storage Service(Amazon S3)와 같은 서비스에서 작동하는 일부 도구 및 라이브러리와 상호 운용이 가능합니다. 이러한 도구 및 라이브러리를 Cloud Storage에 사용하려면 도구 또는 라이브러리가 Cloud Storage URI https://storage.googleapis.com에 사용하는 요청 엔드포인트를 변경한 후 Cloud Storage HMAC 키를 사용하도록 도구 또는 라이브러리를 구성합니다. 자세한 시작 방법은 Amazon Simple Storage Service(Amazon S3)에서 단순 마이그레이션을 참조하세요.
V4 서명 프로세스로 인증
V4 서명 프로세스를 사용하면 Cloud Storage XML API에 대해 서명된 헤더 요청을 할 수 있습니다. V4 서명 프로세스를 사용하여 서명을 만든 후 후속 요청의 Authorization 헤더에 서명을 포함하면 인증이 제공됩니다. RSA 서명 또는 Amazon S3 워크플로 및 HMAC 사용자 인증 정보를 사용하여 서명을 만들 수 있습니다. 요청 인증에 대한 자세한 내용은 서명을 참조하세요.
Google Cloud CLI
gcloud CLI는 Cloud Storage에 액세스하는 데 선호되는 명령줄 도구입니다. 또한 Amazon S3와 같이 HMAC 인증을 사용하는 다른 Cloud Storage 서비스에 액세스하고 이를 사용할 때도 이 도구를 사용할 수 있습니다. Amazon S3 사용자 인증 정보를 ~/.aws/credentials에 추가한 후에는 gcloud storage 명령어를 사용하여 Amazon S3 버킷에서 객체를 관리할 수 있습니다. 예를 들면 다음과 같습니다.
다음 명령어는 Amazon S3 버킷 my-aws-bucket의 객체를 나열합니다.
gcloudstoragelss3://my-aws-bucket
다음 명령어는 Amazon S3 버킷과 Cloud Storage 버킷 간에 데이터를 동기화합니다.
gcloud CLI를 사용하여 이름에 점이 포함된 Amazon S3 버킷에 액세스하려고 하면 invalid certificate 오류가 발생할 수 있습니다. Amazon S3는 이름에 점이 포함된 가상 호스팅 버킷 URL을 지원하지 않기 때문입니다. Amazon S3 리소스를 사용할 때는 storage/s3_endpoint_url 속성을 다음과 같이 설정하여 경로 스타일 버킷 URL을 사용하도록 gcloud CLI를 구성할 수 있습니다.
Storage Transfer Service를 사용하면 Amazon S3 버킷, Microsoft Azure Blob Storage 컨테이너, 일반 HTTP/HTTPS 위치에서 Cloud Storage로 대량의 온라인 데이터를 가져올 수 있습니다. Storage Transfer Service를 사용하여 반복 전송을 예약하고, 소스 객체를 삭제하고, 전송할 객체를 선택할 수 있습니다.
또한 Amazon S3 이벤트 알림을 사용하는 경우 이러한 알림을 리슨하고 자동으로 Cloud Storage 버킷을 Amazon S3 소스와 동기화된 상태로 유지하도록 Storage Transfer Service 이벤트 기반 전송을 설정할 수 있습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-05(UTC)"],[],[],null,["# Interoperability with other storage providers\n\nCloud Storage is compatible with some other object storage platforms\nso you can seamlessly integrate data from different sources. This page describes\nCloud Storage tools you can use to manage your cross-platform object\ndata.\n\nXML API\n-------\n\nThe Cloud Storage [XML API](/storage/docs/xml-api/overview) is interoperable with some\ntools and libraries that work with services such as Amazon Simple Storage Service (Amazon S3). To use these tools\nand libraries with Cloud Storage, change the [request endpoint](/storage/docs/request-endpoints)\nthat the tool or library uses to the Cloud Storage URI\n`https://storage.googleapis.com`, and then configure\nthe tool or library to use your Cloud Storage [HMAC keys](/storage/docs/authentication/hmackeys). See\n[Simple migration from Amazon Simple Storage Service (Amazon S3)](/storage/docs/aws-simple-migration) for detailed instructions on getting started.\n\n### Authenticate with the V4 signing process\n\nThe V4 signing process lets you make signed header requests to the\nCloud Storage XML API. After creating a signature using the V4 signing\nprocess, you include the signature in the `Authorization` header of a subsequent\nrequest, which provides authentication. You can create a signature using an RSA\nsignature or your Amazon S3 workflow and HMAC credentials. For more details\nabout authenticating requests, see [Signatures](/storage/docs/authentication/signatures).\n\nGoogle Cloud CLI\n----------------\n\nThe gcloud CLI is the preferred command line tool for accessing\nCloud Storage. It also lets you access and work with other cloud\nstorage services that use HMAC authentication, like Amazon S3. After you add\nyour Amazon S3 credentials to \\~/.aws/credentials, you can start using\n`gcloud storage` commands to manage objects in your Amazon S3 buckets. For\nexample:\n\n- The following command lists the objects in the Amazon S3 bucket\n `my-aws-bucket`:\n\n ```bash\n gcloud storage ls s3://my-aws-bucket\n ```\n- The following command synchronizes data between an Amazon S3 bucket and a\n Cloud Storage bucket:\n\n ```bash\n gcloud storage rsync s3://my-aws-bucket gs://example-bucket --delete-unmatched-destination-objects --recursive\n ```\n\nFor more information, including details on how to optimize this synchronization,\nsee the [`gcloud storage rsync` documentation](/sdk/gcloud/reference/storage/rsync).\n\n#### **Invalid certificate** from Amazon S3 bucket names containing dots\n\nIf you attempt to use the gcloud CLI to access an Amazon S3 bucket\nthat contains a dot in its name, you might receive an `invalid certificate`\nerror. This is because Amazon S3 does not support virtual-hosted bucket URLs\nwith dots in their name. When working with Amazon S3 resources, you can\nconfigure the gcloud CLI to attempt to use path-style bucket URLs\nby setting the `storage/s3_endpoint_url` property to be the following: \n\n```bash\nstorage/s3_endpoint_url https://s3.REGION_CODE.amazonaws.com\n```\n\nWhere \u003cvar translate=\"no\"\u003eREGION_CODE\u003c/var\u003e is the region containing the bucket\nyou are requesting. For example, `us-east-2`.\n\nYou can modify the `storage/s3_endpoint_url` property in one of the following\nways:\n\n- Using the [`gcloud config set` command](/sdk/gcloud/reference/config/set), which applies the property to\n all gcloud CLI commands.\n\n- Creating a [named configuration](/sdk/gcloud/reference/topic/configurations) and applying it on a per-command basis\n using the [`--configuration` project-wide flag](/sdk/gcloud/reference#--configuration).\n\nImporting data with Storage Transfer Service\n--------------------------------------------\n\n[Storage Transfer Service](/storage-transfer-service) lets you import large amounts of online data into\nCloud Storage from Amazon S3 buckets, Microsoft Azure Blob Storage containers, and general\nHTTP/HTTPS locations. Storage Transfer Service can be used to schedule recurring\ntransfers, delete source objects, and select which objects are transferred.\n\nAdditionally, if you use Amazon S3 Event Notifications, you can set up\nStorage Transfer Service [event-driven transfers](/storage-transfer/docs/event-driven-transfers) to listen for such\nnotifications and automatically keep a Cloud Storage bucket\nin sync with a Amazon S3 source.\n\nWhat's next\n-----------\n\n- Quickly complete a [simple migration from Amazon S3 to Cloud Storage](/storage/docs/aws-simple-migration).\n- [Create a signature](/storage/docs/authentication/signatures) for authenticating requests.\n\n\u003cbr /\u003e\n\n*Amazon Simple Storage Service^™^ and Amazon S3^™^ are trademarks of Amazon.com, Inc. or its affiliates in the United States and/or other countries.*\n\n\u003cbr /\u003e"]]