전송이 예상보다 느리게 진행되면 이 페이지의 정보를 참조하여 가능한 원인과 해결 방법을 확인합니다.
에이전트리스 전송
Amazon S3, Microsoft Azure, URL 목록 또는 Cloud Storage에서 Cloud Storage로 전송하는 경우 Storage Transfer Service는 전송을 관리하는 데 호스팅된 전송 에이전트가 필요 없습니다.
여러 동시 전송 만들기
Storage Transfer Service에는 전송 작업당 허용되는 최대 초당 쿼리 수(QPS)가 있습니다. 작업에 비교적 작은 파일이 많이 있으면 전송 속도가 이 QPS 한도로 제한됩니다. 객체를 전송하면 나열, 읽기, 쓰기 작업이 트리거될 수 있으며, 각 작업이 최대 QPS에 반영됩니다.
QPS 한도를 해결하려면 대규모 전송을 여러 개의 전송 작업으로 분할합니다. 포함 및 제외 프리픽스를 사용하여 파일이 적게 포함된 전송 작업을 만듭니다. 다음과 같은 필드를 만들 수 있습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-03(UTC)"],[],[],null,["# Improve transfer speeds\n\nTransfer speeds are affected by factors including source location and provider,\nfile sizes, and number of files.\n\nIf your transfer is progressing more slowly than expected, refer to the\ninformation on this page for possible reasons and resolutions.\n\nAgentless transfers\n-------------------\n\nFor transfers to Cloud Storage from Amazon S3, Microsoft Azure, URL lists,\nor Cloud Storage, Storage Transfer Service manages the transfer without the need\nfor hosted transfer agents.\n\n### Create multiple parallel transfers\n\nStorage Transfer Service has a maximum number\nof allowed queries per second (QPS) per transfer job. If your job involves\na large number of relatively small files, its transfer speed is limited by this\nQPS cap. Transferring an object can trigger list, read, and write operations,\neach of which count against the maximum QPS.\n\nTo work around the QPS limit, split your large transfer into multiple transfer\njobs. Use [include and exclude prefixes](/storage-transfer/docs/filtering-objects-from-transfers) to create transfer jobs containing\nfewer files. You can create:\n\n- up to [5000 jobs per day](/storage-transfer/quotas#rate-quotas)\n- with [200 jobs running](/storage-transfer/quotas#transferOperations) at any point in time\n\nFor example, to transfer only files whose filename or path begin with the\nletters `a` through `e`: \n\n### gcloud CLI\n\n gcloud transfer jobs create \u003cvar translate=\"no\"\u003eSOURCE\u003c/var\u003e \u003cvar translate=\"no\"\u003eDESTINATION\u003c/var\u003e \\\n --include-prefixes=\"a,b,c,d,e\"\n\n### REST\n\n {\n \"description\": \"YOUR DESCRIPTION\",\n \"status\": \"ENABLED\",\n \"projectId\": \"PROJECT_ID\",\n \"schedule\": {\n \"scheduleStartDate\": {\n \"day\": 1,\n \"month\": 1,\n \"year\": 2015\n },\n \"startTimeOfDay\": {\n \"hours\": 1,\n \"minutes\": 1\n }\n },\n \"transferSpec\": {\n \"gcsDataSource\": {\n \"bucketName\": \"GCS_SOURCE_NAME\"\n },\n \"gcsDataSink\": {\n \"bucketName\": \"GCS_SINK_NAME\"\n },\n \"transferOptions\": {\n \"deleteObjectsFromSourceAfterTransfer\": true\n },\n \"objectConditions\": {\n \"includePrefixes\": [\n \"a\",\"b\",\"c\",\"d\",\"e\"\n ],\n \"excludePrefixes\": [\n \"path_1/subpath_2/object_5\"\n ]\n }\n }\n }\n\nAgent-based transfers\n---------------------\n\nFor tips on speeding up agent-based transfers, refer to\n[Best practices for file system transfers](/storage-transfer/docs/on-prem-agent-best-practices)."]]