이 페이지에서는 Google Distributed Cloud (GDC) Sandbox AI 최적화 SKU에 GPU 컨테이너 워크로드를 배포하는 방법을 설명합니다.
GPU 컨테이너 워크로드 배포
GDC 샌드박스 AI 최적화 SKU에는 조직 인프라 클러스터 내에 NVIDIA H100 80GB HBM3 GPU가 4개 포함되어 있습니다. 이러한 GPU는 리소스 이름 nvidia.com/gpu-pod-NVIDIA_H100_80GB_HBM3를 사용하여 액세스할 수 있습니다. 이 섹션에서는 이러한 GPU를 사용하도록 컨테이너 구성을 업데이트하는 방법을 설명합니다.
GDC Sandbox AI 최적화 SKU의 GPU는 사전 구성된 프로젝트인 'sandbox-gpu-project'와 연결되어 있습니다. GPU를 사용하려면 이 프로젝트를 사용하여 컨테이너를 배포해야 합니다.
시작하기 전에
조직 인프라 클러스터에 대해 명령어를 실행하려면 클러스터 작업에 설명된 대로 org-1-infra 클러스터의 kubeconfig가 있어야 합니다.
gdcloud 명령줄로 구성 및 인증
조직 인프라 클러스터의 kubeconfig 파일을 생성하고 경로를 환경 변수 KUBECONFIG에 할당합니다.
워크로드를 실행하려면 sandbox-gpu-admin 역할이 할당되어 있어야 합니다.
기본적으로 역할은 platform-admin 사용자에게 할당됩니다. platform-admin로 로그인하고 다음 명령어를 실행하여 다른 사용자에게 역할을 할당할 수 있습니다.
컨테이너 사양에 .containers.resources.requests 및 .containers.resources.limits 필드를 추가하여 워크로드에 GPU를 요청합니다. 샌드박스-gpu-project 내의 모든 컨테이너는 전체 프로젝트에서 최대 총 4개의 GPU를 요청할 수 있습니다. 다음 예에서는 컨테이너 사양의 일부로 GPU 하나를 요청합니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# Deploy GPU container workloads\n\nThis page describes how to deploy GPU container workloads on the\nGoogle Distributed Cloud (GDC) Sandbox AI Optimized SKU.\n\nDeploy GPU container workloads\n------------------------------\n\nThe GDC Sandbox AI Optimized SKU includes four NVIDIA H100 80GB HBM3 GPUs within\nthe org-infra cluster. These GPUs are accessible using the resource name\n`nvidia.com/gpu-pod-NVIDIA_H100_80GB_HBM3`. This section describes how to update\na container configuration to use these GPUS.\n\nThe GPUs in GDC Sandbox AI Optimized SKU are associated with a pre-configured\nproject, \"**sandbox-gpu-project**\". You must deploy your container using this\nproject in order to make use of the GPUs.\n| **Note:** For GPU workloads, there is no direct access to HaaS (Harbor as a Service). You must be able to fetch images from the Google Cloud Artifact Registry or internet.\n\n### Before you begin\n\n- To run commands against the org infrastructure cluster, make sure that you\n have the kubeconfig of the `org-1-infra` cluster, as described in\n [Work with clusters](/distributed-cloud/sandbox/latest/clusters#org-infra-cluster):\n\n - Configure and authenticate with the `gdcloud` command line, and\n - generate the kubeconfig file for the org infrastructure cluster, and assign its path to the environment variable `KUBECONFIG`.\n- To run the workloads, you must have the `sandbox-gpu-admin` role assigned.\n By default, the role is assigned to the `platform-admin` user. You can\n assign the role to other users by signing in as the `platform-admin` and\n running the following command:\n\n kubectl --kubeconfig ${KUBECONFIG} create rolebinding ${NAME} --role=sandbox-gpu-admin \\\n --user=${USER} --namespace=sandbox-gpu-project\n\n### Configure a container to use GPU resources\n\n1. Add the `.containers.resources.requests` and `.containers.resources.limits`\n fields to your container specification to request GPUs for the workload. All\n containers within the sandbox-gpu-project can request up to a total of 4\n GPUs across the entire project. The following example requests one GPU as\n part of the container specification.\n\n apiVersion: apps/v1\n kind: Deployment\n metadata:\n name: nginx-deployment\n namespace: sandbox-gpu-project\n labels:\n app: nginx\n spec:\n replicas: 1\n selector:\n matchLabels:\n app: nginx\n template:\n metadata:\n labels:\n app: nginx\n spec:\n containers:\n - name: nginx\n image: nginx:latest\n resources:\n requests:\n nvidia.com/gpu-pod-NVIDIA_H100_80GB_HBM3: 1\n limits:\n nvidia.com/gpu-pod-NVIDIA_H100_80GB_HBM3: 1\n\n| **Note:** If you are using GDC Sandbox AI Optimized with A100 GPUs, the GPUs are accessible using the resource name `nvidia.com/gpu-pod-NVIDIA_A100_SXM4_80GB`. Substitute this resource name for `nvidia.com/gpu-pod-NVIDIA_H100_80GB_HBM3` in the configuration file.\n\n1. Containers also require additional permissions to access GPUs. For each\n container that requests GPUs, add the following permissions to your\n container spec:\n\n securityContext:\n seLinuxOptions:\n type: unconfined_t\n\n2. Apply your container manifest file:\n\n kubectl apply -f ${CONTAINER_MANIFEST_FILE_PATH} \\\n -n sandbox-gpu-project \\\n --kubeconfig ${KUBECONFIG}"]]