VM 인스턴스 그룹 백엔드가 있는 리전 내부 애플리케이션 부하 분산기 설정

이 문서에서는 Compute Engine VM에서 실행되는 서비스의 리전 내부 애플리케이션 부하 분산기를 구성하는 방법을 설명합니다.

Google Kubernetes Engine(GKE) 포드에서 실행되는 서비스에 대한 부하 분산을 구성하려면 독립형 NEG를 사용한 컨테이너 기반 부하 분산리전 내부 애플리케이션 부하 분산기를 독립형 NEG에 연결 섹션을 참조하세요.

Private Service Connect를 사용하여 Google API 및 서비스에 액세스하도록 부하 분산을 구성하려면 소비자 HTTP(S) 서비스 제어로 Private Service Connect 구성을 참조하세요.

내부 애플리케이션 부하 분산기 설정은 다음 두 부분으로 구성됩니다.

  • 필요한 계정에 올바른 권한이 있는지 확인하고 Virtual Private Cloud(VPC) 네트워크를 준비하는 등의 필수 작업을 수행합니다.
  • 부하 분산기 리소스를 설정합니다.

이 가이드를 진행하기 전에 다음 사항을 숙지하세요.

권한

이 가이드를 진행하려면 프로젝트에서 인스턴스를 만들고 네트워크를 수정할 수 있어야 합니다. 이렇게 하려면 프로젝트 소유자 또는 편집자이거나 다음 Compute Engine IAM 역할을 모두 보유해야 합니다.

작업 필요한 역할
네트워크, 서브넷, 부하 분산기 구성요소 만들기 Compute 네트워크 관리자
방화벽 규칙 추가 및 삭제 Compute 보안 관리자
인스턴스 만들기 Compute 인스턴스 관리자

자세한 내용은 다음 가이드를 참조하세요.

설정 개요

다음과 같은 대략적인 구성 흐름의 설명에 따라 내부 애플리케이션 부하 분산기를 구성할 수 있습니다. 번호가 매겨진 단계는 다이어그램의 번호를 나타냅니다.

내부 애플리케이션 부하 분산기의 번호가 매겨진 구성요소
내부 애플리케이션 부하 분산기 번호가 매겨진 구성요소(확대하려면 클릭)

다이어그램에서 볼 수 있듯이 이 예시에서는 하나의 백엔드 서비스와 두 개의 백엔드 그룹이 있는 us-west1 리전의 VPC 네트워크에 내부 애플리케이션 부하 분산기를 만듭니다.

다이어그램에 표시된 항목은 다음과 같습니다.

  1. 두 개의 서브넷이 있는 VPC 네트워크:

    1. 서브넷 하나는 백엔드(인스턴스 그룹) 및 전달 규칙에 사용됩니다. 기본 IP 주소 범위는 10.1.2.0/24입니다.

    2. 다른 서브넷은 us-west1 리전의 프록시 전용 서브넷입니다. 내부 애플리케이션 부하 분산기를 사용하는 VPC 네트워크의 각 리전에 프록시 전용 서브넷 하나를 만들어야 합니다. 해당 리전의 프록시 전용 서브넷은 해당 리전의 모든 내부 애플리케이션 부하 분산기 간에 공유됩니다. 내부 애플리케이션 부하 분산기에서 서비스의 백엔드로 보낸 패킷의 소스 주소는 프록시 전용 서브넷에서 할당됩니다. 이 예시에서 리전의 프록시 전용 서브넷의 기본 IP 주소 범위는 권장 서브넷 크기인 10.129.0.0/23입니다. 자세한 내용은 프록시 전용 서브넷을 참조하세요.

  2. 네트워크에서 프록시 전용 서브넷 트래픽 흐름을 허용하는 방화벽 규칙입니다. 즉, 10.129.0.0/23의 TCP 포트 80, 443, 8080 트래픽을 허용하는 하나의 규칙을 추가합니다. 상태 점검 프로브의 또 다른 방화벽 규칙입니다.

  3. 백엔드 Compute Engine VM 인스턴스

  4. Compute Engine VM 배포를 위한 관리형 또는 비관리형 인스턴스 그룹

    각 영역에서 배포 요구 사항에 따라 여러 백엔드 그룹 유형을 조합할 수 있습니다.

  5. 백엔드 준비 상태를 보고하는 리전별 상태 점검입니다.

  6. 백엔드의 사용 및 상태를 모니터링하는 리전별 백엔드 서비스입니다.

  7. 리전별 URL 맵은 요청의 URL을 파싱하고 요청 URL의 호스트와 경로에 따라 특정 백엔드 서비스로 요청을 전달합니다.

  8. 사용자로부터 요청을 수신하여 URL 맵에 전달하는 리전별 대상 HTTP 또는 HTTPS 프록시입니다. HTTPS의 경우 리전별 SSL 인증서 리소스를 구성합니다. HTTPS 부하 분산을 구성할 경우 대상 프록시는 SSL 인증서를 사용하여 SSL 트래픽을 복호화합니다. 대상 프록시는 HTTP나 HTTPS를 사용하여 트래픽을 인스턴스에 전달할 수 있습니다.

  9. 각 수신 요청을 대상 프록시로 전달하기 위한 부하 분산기의 내부 IP 주소를 가진 전달 규칙입니다.

    전달 규칙에 연결된 내부 IP 주소는 동일한 네트워크 및 리전의 모든 서브넷에서 가져올 수 있습니다. 다음 조건을 참고하세요.

    • IP 주소는 백엔드 인스턴스 그룹과 동일한 서브넷에서 가져올 수 있지만 반드시 그럴 필요는 없습니다.
    • --purpose 플래그가 REGIONAL_MANAGED_PROXY로 설정된 예약된 프록시 전용 서브넷에서 IP 주소를 가져오면 안 됩니다.
    • 내부 IP 주소를 여러 전달 규칙과 공유하려면 IP 주소의 --purpose 플래그를 SHARED_LOADBALANCER_VIP로 설정합니다.

    이 페이지의 예시에서는 임시 내부 IP 주소 할당을 허용하는 대신 리전 내부 애플리케이션 부하 분산기의 전달 규칙에 예약된 내부 IP 주소를 사용합니다. 권장사항에 따라서 전달 규칙에 IP 주소를 예약하는 것이 좋습니다.

네트워크 및 서브넷 구성

부하 분산기의 백엔드를 위한 서브넷 한 개와 부하 분산기의 프록시를 위한 서브넷 한 개, 총 두 개 서브넷이 있는 VPC 네트워크가 필요합니다. 내부 애플리케이션 부하 분산기는 리전 기준입니다. 트래픽 소스가 부하 분산기와 동일한 리전의 서브넷에 있는 경우 VPC 네트워크 내의 트래픽이 부하 분산기로 라우팅됩니다.

이 예시에서는 다음 VPC 네트워크, 리전 및 서브넷을 사용합니다.

  • 네트워크. 네트워크는 커스텀 모드 VPC 네트워크이며 이름은 lb-network입니다.

  • 백엔드 서브넷. us-west1 리전에 있는 backend-subnet이라는 이름의 서브넷은 기본 IP 범위로 10.1.2.0/24를 사용합니다.

  • 프록시 서브넷: us-west1 리전에 있는 proxy-only-subnet이라는 이름의 서브넷은 기본 IP 범위로 10.129.0.0/23을 사용합니다.

전역 액세스를 보여주기 위해 이 예시에서는 다른 리전과 서브넷에 두 번째 테스트 클라이언트 VM을 만듭니다.

  • 리전: europe-west1
  • 서브넷: europe-subnet, 기본 IP 주소 범위 10.3.4.0/24

네트워크 및 서브넷 구성

콘솔

  1. Google Cloud 콘솔에서 VPC 네트워크 페이지로 이동합니다.

    VPC 네트워크로 이동

  2. VPC 네트워크 만들기를 클릭합니다.

  3. 이름lb-network를 입력합니다.

  4. 서브넷 섹션에서 서브넷 생성 모드커스텀으로 설정합니다.

  5. 부하 분산기의 백엔드에 대한 서브넷을 만듭니다. 새 서브넷 섹션에 다음 정보를 입력합니다.

    • 이름: backend-subnet
    • 리전: us-west1
    • IP 주소 범위: 10.1.2.0/24
  6. 완료를 클릭합니다.

  7. 서브넷 추가를 클릭합니다.

  8. 전역 액세스를 보여주는 서브넷을 만듭니다. 새 서브넷 섹션에 다음 정보를 입력합니다.

    • 이름: europe-subnet
    • 리전: europe-west1
    • IP 주소 범위: 10.3.4.0/24
  9. 완료를 클릭합니다.

  10. 만들기를 클릭합니다.

gcloud

  1. gcloud compute networks create 명령어를 사용하여 커스텀 VPC 네트워크를 만듭니다.

    gcloud compute networks create lb-network --subnet-mode=custom
    
  2. gcloud compute networks subnets create 명령어를 사용하여 us-west1 리전의 lb-network 네트워크에 서브넷을 만듭니다.

    gcloud compute networks subnets create backend-subnet \
        --network=lb-network \
        --range=10.1.2.0/24 \
        --region=us-west1
    
  3. gcloud compute networks subnets create 명령어를 사용하여 europe-west1 리전의 lb-network 네트워크에 서브넷을 만듭니다.

    gcloud compute networks subnets create europe-subnet \
        --network=lb-network \
        --range=10.3.4.0/24 \
        --region=europe-west1
    

API

networks.insert 메서드에 대해 POST 요청을 실행합니다. PROJECT_ID를 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/networks

{
 "routingConfig": {
   "routingMode": "REGIONAL"
 },
 "name": "lb-network",
 "autoCreateSubnetworks": false
}

subnetworks.insert 메서드에 대해 POST 요청을 실행합니다. PROJECT_ID를 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-west1/subnetworks

{
 "name": "backend-subnet",
 "network": "projects/PROJECT_ID/global/networks/lb-network",
 "ipCidrRange": "10.1.2.0/24",
 "region": "projects/PROJECT_ID/regions/us-west1",
}

subnetworks.insert 메서드에 대해 POST 요청을 실행합니다. PROJECT_ID를 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/europe-west1/subnetworks

{
 "name": "europe-subnet",
 "network": "projects/PROJECT_ID/global/networks/lb-network",
 "ipCidrRange": "10.3.4.0/24",
 "region": "projects/PROJECT_ID/regions/europe-west1",
}

프록시 전용 서브넷 구성

이 프록시 전용 서브넷은 lb-networkus-west1 리전에 있는 모든 리전 Envoy 기반 부하 분산기에서 사용됩니다.

콘솔

Google Cloud 콘솔을 사용하는 경우에는 기다렸다가 나중에 부하 분산 페이지에서 프록시 전용 서브넷을 만들 수 있습니다.

지금 프록시 전용 서브넷을 만들려면 다음 단계를 사용합니다.

  1. Google Cloud 콘솔에서 VPC 네트워크 페이지로 이동합니다.

    VPC 네트워크로 이동

  2. VPC 네트워크의 이름(lb-network)을 클릭합니다.

  3. 서브넷 추가를 클릭합니다.

  4. 이름proxy-only-subnet를 입력합니다.

  5. 리전에서 us-west1을 선택합니다.

  6. 용도리전별 관리형 프록시로 설정합니다.

  7. IP 주소 범위10.129.0.0/23을 입력합니다.

  8. 추가를 클릭합니다.

gcloud

gcloud compute networks subnets create 명령어로 프록시 전용 서브넷을 만듭니다.

gcloud compute networks subnets create proxy-only-subnet \
  --purpose=REGIONAL_MANAGED_PROXY \
  --role=ACTIVE \
  --region=us-west1 \
  --network=lb-network \
  --range=10.129.0.0/23

API

subnetworks.insert 메서드로 프록시 전용 서브넷을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/projects/PROJECT_ID/regions/us-west1/subnetworks

{
  "name": "proxy-only-subnet",
  "ipCidrRange": "10.129.0.0/23",
  "network": "projects/PROJECT_ID/global/networks/lb-network",
  "region": "projects/PROJECT_ID/regions/us-west1",
  "purpose": "REGIONAL_MANAGED_PROXY",
  "role": "ACTIVE"
}

방화벽 규칙 구성

이 예시에서는 다음과 같은 방화벽 규칙을 사용합니다.

  • fw-allow-ssh. 부하 분산되는 인스턴스에 적용되는 인그레스 규칙으로 TCP 포트 22에 임의의 주소로부터 수신되는 SSH 연결을 허용합니다. 이 규칙에 더 제한적인 소스 IP 범위를 선택할 수 있습니다. 예를 들어 SSH 세션을 시작할 시스템의 IP 범위만 지정할 수도 있습니다. 이 예시에서는 대상 태그 allow-ssh를 사용해서 방화벽 규칙이 적용되는 VM을 식별합니다.

  • fw-allow-health-check. 부하 분산되는 인스턴스에 적용되는 인그레스 규칙으로 Google Cloud 상태 점검 시스템(130.211.0.0/2235.191.0.0/16 참조)의 모든 TCP 트래픽을 허용합니다. 이 예시에서는 load-balanced-backend 대상 태그를 사용하여 방화벽 규칙이 적용되는 VM을 식별합니다.

  • fw-allow-proxies: 부하 분산되는 인스턴스에 적용되는 인그레스 규칙으로 내부 애플리케이션 부하 분산기의 관리형 프록시로부터 포트 80, 443, 8080로의 TCP 트래픽을 허용합니다. 이 예시에서는 대상 태그 load-balanced-backend를 사용해서 방화벽 규칙이 적용되는 VM을 식별합니다.

이러한 방화벽 규칙이 없으면 기본 거부 인그레스 규칙은 백엔드 인스턴스로 들어오는 트래픽을 차단합니다.

대상 태그는 백엔드 인스턴스를 정의합니다. 대상 태그가 없으면 VPC 네트워크의 모든 백엔드 인스턴스에 방화벽 규칙이 적용됩니다. 백엔드 VM을 만들 때는 관리형 인스턴스 그룹 만들기에 나온 대로 지정된 대상 태그를 포함해야 합니다.

콘솔

  1. Google Cloud 콘솔에서 방화벽 정책 페이지로 이동합니다.

    방화벽 정책으로 이동

  2. 방화벽 규칙 만들기를 클릭하여 수신 SSH 연결을 허용하는 규칙을 만듭니다.

    • 이름: fw-allow-ssh
    • 네트워크: lb-network
    • 트래픽 방향: 인그레스
    • 일치 시 작업: 허용
    • 대상: 지정된 대상 태그
    • 대상 태그: allow-ssh
    • 소스 필터: IPv4 범위
    • 소스 IPv4 범위: 0.0.0.0/0
    • 프로토콜 및 포트:
      • 지정된 프로토콜 및 포트를 선택합니다.
      • TCP 체크박스를 선택한 후 포트 번호에 22을 입력합니다.
  3. 만들기를 클릭합니다.

  4. 방화벽 규칙 만들기를 다시 한 번 클릭하여 Google Cloud 상태 점검을 허용하는 규칙을 만듭니다.

    • 이름: fw-allow-health-check
    • 네트워크: lb-network
    • 트래픽 방향: 인그레스
    • 일치 시 작업: 허용
    • 대상: 지정된 대상 태그
    • 대상 태그: load-balanced-backend
    • 소스 필터: IPv4 범위
    • 소스 IPv4 범위: 130.211.0.0/2235.191.0.0/16
    • 프로토콜 및 포트:
      • 지정된 프로토콜 및 포트를 선택합니다.
      • TCP 체크박스를 선택한 후 포트 번호에 80을 입력합니다.
        권장사항에 따라서 상태 점검에 사용되는 것과 일치하는 프로토콜 및 포트로 이러한 규칙을 제한합니다. 프로토콜 및 포트에 tcp:80을 사용하면 Google Cloud가 포트 80에서 HTTP를 사용하여 VM에 연결할 수 있지만 포트 443에서 HTTPS를 사용하여 연결할 수는 없습니다.
  5. 만들기를 클릭합니다.

  6. 방화벽 규칙 만들기를 세 번째로 클릭하여 부하 분산기의 프록시 서버를 백엔드에 연결하도록 허용하는 규칙을 만듭니다.

    • 이름: fw-allow-proxies
    • 네트워크: lb-network
    • 트래픽 방향: 인그레스
    • 일치 시 작업: 허용
    • 대상: 지정된 대상 태그
    • 대상 태그: load-balanced-backend
    • 소스 필터: IPv4 범위
    • 소스 IPv4 범위: 10.129.0.0/23
    • 프로토콜 및 포트:
      • 지정된 프로토콜 및 포트를 선택합니다.
      • TCP 체크박스를 선택한 다음 포트 번호로 80, 443, 8080을 입력합니다.
  7. 만들기를 클릭합니다.

gcloud

  1. allow-ssh 네트워크 태그를 사용해 VM으로 가는 SSH 연결을 허용하는 fw-allow-ssh 방화벽 규칙을 만듭니다. source-ranges를 생략하면 Google Cloud는 모든 소스를 의미하는 것으로 규칙을 해석합니다.

    gcloud compute firewall-rules create fw-allow-ssh \
        --network=lb-network \
        --action=allow \
        --direction=ingress \
        --target-tags=allow-ssh \
        --rules=tcp:22
    
  2. fw-allow-health-check 규칙을 만들어 Google Cloud 상태 점검을 허용합니다. 이 예시에서는 상태 점검 프로버의 모든 TCP 트래픽을 허용합니다. 그러나 필요에 따라 더 좁은 포트 집합을 구성할 수 있습니다.

    gcloud compute firewall-rules create fw-allow-health-check \
        --network=lb-network \
        --action=allow \
        --direction=ingress \
        --source-ranges=130.211.0.0/22,35.191.0.0/16 \
        --target-tags=load-balanced-backend \
        --rules=tcp
    
  3. 내부 애플리케이션 부하 분산기의 프록시를 백엔드에 연결하도록 허용하는 fw-allow-proxies 규칙을 만듭니다. source-ranges를 프록시 전용 서브넷의 할당된 범위로 설정합니다(예시: 10.129.0.0/23).

    gcloud compute firewall-rules create fw-allow-proxies \
      --network=lb-network \
      --action=allow \
      --direction=ingress \
      --source-ranges=source-range \
      --target-tags=load-balanced-backend \
      --rules=tcp:80,tcp:443,tcp:8080
    

API

firewalls.insert 메서드에 POST 요청을 수행하여 fw-allow-ssh 방화벽 규칙을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/firewalls

{
 "name": "fw-allow-ssh",
 "network": "projects/PROJECT_ID/global/networks/lb-network",
 "sourceRanges": [
   "0.0.0.0/0"
 ],
 "targetTags": [
   "allow-ssh"
 ],
 "allowed": [
  {
    "IPProtocol": "tcp",
    "ports": [
      "22"
    ]
  }
 ],
"direction": "INGRESS"
}

firewalls.insert 메서드에 POST 요청을 수행하여 fw-allow-health-check 방화벽 규칙을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/firewalls

{
 "name": "fw-allow-health-check",
 "network": "projects/PROJECT_ID/global/networks/lb-network",
 "sourceRanges": [
   "130.211.0.0/22",
   "35.191.0.0/16"
 ],
 "targetTags": [
   "load-balanced-backend"
 ],
 "allowed": [
   {
     "IPProtocol": "tcp"
   }
 ],
 "direction": "INGRESS"
}

firewalls.insert 메서드에 대해 프록시 서브넷 내에서 TCP 트래픽을 허용하도록 fw-allow-proxies 방화벽 규칙을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/firewalls

{
 "name": "fw-allow-proxies",
 "network": "projects/PROJECT_ID/global/networks/lb-network",
 "sourceRanges": [
   "10.129.0.0/23"
 ],
 "targetTags": [
   "load-balanced-backend"
 ],
 "allowed": [
   {
     "IPProtocol": "tcp",
     "ports": [
       "80"
     ]
   },
 {
     "IPProtocol": "tcp",
     "ports": [
       "443"
     ]
   },
   {
     "IPProtocol": "tcp",
     "ports": [
       "8080"
     ]
   }
 ],
 "direction": "INGRESS"
}

부하 분산기의 IP 주소 예약

기본적으로 전달 규칙마다 하나의 IP 주소가 사용됩니다. 공유 IP 주소를 예약할 수 있으므로 여러 전달 규칙과 동일한 IP 주소를 사용할 수 있습니다. 하지만 Private Service Connect를 사용하여 부하 분산기를 게시하려는 경우 전달 규칙에 공유 IP 주소를 사용하지 마세요.

전달 규칙의 IP 주소는 backend-subnet을 사용합니다. 프록시 전용 서브넷을 사용하려고 하면 전달 규칙 생성에 실패합니다.

콘솔

Google Cloud 콘솔을 사용하여 독립형 내부 IP 주소를 예약할 수 있습니다.

  1. VPC 네트워크 페이지로 이동합니다.

    VPC 네트워크로 이동

  2. 환경 간 하이브리드 연결을 구성하는 데 사용된 네트워크를 클릭합니다.
  3. 고정 내부 IP 주소를 클릭한 후 고정 주소 예약을 클릭합니다.
  4. 이름l7-ilb-ip-address를 입력합니다.
  5. 서브넷으로 backend-subnet을 선택합니다.
  6. 예약할 IP 주소를 지정하려면 고정 IP 주소 아래에서 직접 선택을 선택한 후 커스텀 IP 주소를 입력합니다. 그렇지 않으면 시스템이 서브넷에서 IP 주소를 자동으로 할당합니다.
  7. 이 IP 주소를 여러 전달 규칙과 함께 사용하려면 목적에서 공유를 선택합니다.
  8. 예약을 클릭하여 프로세스를 완료합니다.

gcloud

  1. gcloud CLI를 사용하여 compute addresses create 명령어를 실행합니다.

    gcloud compute addresses create l7-ilb-ip-address \
      --region=us-west1 \
      --subnet=backend-subnet
    

    여러 전달 규칙에 동일한 IP 주소를 사용하려면 --purpose=SHARED_LOADBALANCER_VIP를 지정하세요.

  2. compute addresses describe 명령어를 사용하여 할당된 IP 주소를 봅니다.

    gcloud compute addresses describe l7-ilb-ip-address \
      --region=us-west1
    

관리형 VM 인스턴스 그룹 백엔드 만들기

이 섹션에서는 인스턴스 그룹 템플릿과 관리형 인스턴스 그룹을 만드는 방법을 보여줍니다. 관리형 인스턴스 그룹은 리전 내부 애플리케이션 부하 분산기 예시의 백엔드 서버를 실행하는 VM 인스턴스를 제공합니다. 인스턴스 그룹에 HTTP 서비스를 정의하고 포트 이름을 관련 포트에 매핑할 수 있습니다. 부하 분산기의 백엔드 서비스에서 트래픽을 이름이 지정된 포트로 전달합니다. 클라이언트에서 전송된 트래픽은 백엔드 서버로 부하 분산됩니다. 여기에서는 백엔드에서 자체 호스트 이름을 데모용으로 제공합니다.

콘솔

  1. 인스턴스 템플릿을 만듭니다. Google Cloud 콘솔에서 인스턴스 템플릿 페이지로 이동합니다.

    인스턴스 템플릿으로 이동

    1. 인스턴스 템플릿 만들기를 클릭합니다.
    2. 이름l7-ilb-backend-template를 입력합니다.
    3. 부팅 디스크Debian GNU/Linux 12(bookworm)와 같은 Debian 이미지로 설정되었는지 확인합니다. 이 안내에서는 apt-get처럼 Debian에서만 사용할 수 있는 명령어를 사용합니다.
    4. 고급 옵션을 클릭합니다.
    5. 네트워킹을 클릭하고 다음 필드를 구성합니다.
      1. 네트워크 태그allow-sshload-balanced-backend를 입력합니다.
      2. 네트워크 인터페이스에 다음을 선택합니다.
        • 네트워크: lb-network
        • 서브넷: backend-subnet
    6. 관리를 클릭합니다. 시작 스크립트 필드에 다음 스크립트를 입력합니다.

      #! /bin/bash
      apt-get update
      apt-get install apache2 -y
      a2ensite default-ssl
      a2enmod ssl
      vm_hostname="$(curl -H "Metadata-Flavor:Google" \
      http://metadata.google.internal/computeMetadata/v1/instance/name)"
      echo "Page served from: $vm_hostname" | \
      tee /var/www/html/index.html
      systemctl restart apache2
      
    7. 만들기를 클릭합니다.

  2. 관리형 인스턴스 그룹을 만듭니다. Google Cloud 콘솔에서 인스턴스 그룹 페이지로 이동합니다.

    인스턴스 그룹으로 이동

    1. 인스턴스 그룹 만들기를 클릭합니다.
    2. 새 관리형 인스턴스 그룹(스테이트리스(Stateless))을 선택합니다. 자세한 내용은 스테이트리스(Stateless) 또는 스테이트풀(Stateful) MIG를 참조하세요.
    3. 이름l7-ilb-backend-example를 입력합니다.
    4. 위치에서 단일 영역을 선택합니다.
    5. 리전에서 us-west1을 선택합니다.
    6. 영역에서 us-west1-a를 선택합니다.
    7. 인스턴스 템플릿에서 l7-ilb-backend-template을 선택합니다.
    8. 그룹에 만들 인스턴스의 수를 지정합니다.

      이 예시에서는 자동 확장에서 다음 옵션을 지정합니다.

      • 자동 확장 모드에서 Off:do not autoscale을 선택합니다.
      • 최대 인스턴스 수2를 입력합니다.

      원할 경우 UI의 자동 확장 섹션에서 인스턴스 그룹을 구성하여 인스턴스 CPU 사용량을 기준으로 인스턴스를 자동 추가 또는 삭제할 수 있습니다.

    9. 만들기를 클릭합니다.

gcloud

이 가이드의 gcloud 안내에서는 Cloud Shell 또는 bash가 설치된 다른 환경을 사용한다고 가정합니다.

  1. gcloud compute instance-templates create 명령어로 HTTP 서버가 포함된 VM 인스턴스 템플릿을 만듭니다.

    gcloud compute instance-templates create l7-ilb-backend-template \
    --region=us-west1 \
    --network=lb-network \
    --subnet=backend-subnet \
    --tags=allow-ssh,load-balanced-backend \
    --image-family=debian-12 \
    --image-project=debian-cloud \
    --metadata=startup-script='#! /bin/bash
      apt-get update
      apt-get install apache2 -y
      a2ensite default-ssl
      a2enmod ssl
      vm_hostname="$(curl -H "Metadata-Flavor:Google" \
      http://metadata.google.internal/computeMetadata/v1/instance/name)"
      echo "Page served from: $vm_hostname" | \
      tee /var/www/html/index.html
      systemctl restart apache2'
    
  2. gcloud compute instance-groups managed create 명령어로 영역에 관리형 인스턴스 그룹을 만듭니다.

    gcloud compute instance-groups managed create l7-ilb-backend-example \
        --zone=us-west1-a \
        --size=2 \
        --template=l7-ilb-backend-template
    

API

instanceTemplates.insert 메서드로 인스턴스 템플릿을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.


POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/instanceTemplates
{
  "name":"l7-ilb-backend-template",
  "properties":{
     "machineType":"e2-standard-2",
     "tags":{
       "items":[
         "allow-ssh",
         "load-balanced-backend"
       ]
     },
     "metadata":{
        "kind":"compute#metadata",
        "items":[
          {
            "key":"startup-script",
            "value":"#! /bin/bash\napt-get update\napt-get install
            apache2 -y\na2ensite default-ssl\na2enmod ssl\n
            vm_hostname=\"$(curl -H \"Metadata-Flavor:Google\"
            \\\nhttp://metadata.google.internal/computeMetadata/v1/instance/name)\"\n
            echo \"Page served from: $vm_hostname\" | \\\ntee
            /var/www/html/index.html\nsystemctl restart apache2"
          }
        ]
     },
     "networkInterfaces":[
       {
         "network":"projects/PROJECT_ID/global/networks/lb-network",
         "subnetwork":"regions/us-west1/subnetworks/backend-subnet",
         "accessConfigs":[
           {
             "type":"ONE_TO_ONE_NAT"
           }
         ]
       }
     ],
     "disks":[
       {
         "index":0,
         "boot":true,
         "initializeParams":{
           "sourceImage":"projects/debian-cloud/global/images/family/debian-12"
         },
         "autoDelete":true
       }
     ]
  }
}

instanceGroupManagers.insert 메서드로 각 영역에 관리형 인스턴스 그룹을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/{zone}/instanceGroupManagers
{
  "name": "l7-ilb-backend-example",
  "zone": "projects/PROJECT_ID/zones/us-west1-a",
  "instanceTemplate": "projects/PROJECT_ID/global/instanceTemplates/l7-ilb-backend-template",
  "baseInstanceName": "l7-ilb-backend-example",
  "targetSize": 2
}

부하 분산기 구성

이 예시에서는 다음 리전 내부 애플리케이션 부하 분산기 리소스를 만드는 방법을 보여줍니다.

  • HTTP 상태 점검
  • 관리형 인스턴스 그룹이 백엔드인 백엔드 서비스
  • URL 맵
    • 대상 HTTP(S) 프록시에 리전이 정의되어 있으면 리전별 URL 맵을 참조해야 합니다. 리전별 URL 맵은 수신 URL의 호스트 및 경로에 대해 정의한 규칙에 따라 리전별 백엔드 서비스로 요청을 라우팅합니다. 리전별 URL 맵은 동일한 리전의 리전별 대상 프록시 규칙에서만 참조할 수 있습니다.
  • SSL 인증서(HTTPS용)
  • 대상 프록시
  • 전달 규칙

프록시 가용성

Google Cloud 리전에 새로운 부하 분산기의 프록시 용량이 부족한 경우도 있습니다. 이 경우 부하 분산기를 생성할 때 Google Cloud 콘솔에서 프록시 가용성 경고 메시지를 제공합니다. 이 문제를 해결하려면 다음 중 하나를 수행하면 됩니다.

  • 부하 분산기에 다른 리전을 선택합니다. 다른 리전에 백엔드가 있으면 이 방법이 편리합니다.
  • 프록시 전용 서브넷이 이미 할당된 VPC 네트워크를 사용합니다.
  • 용량 문제가 해결될 때까지 기다립니다.

콘솔

구성 시작

  1. Google Cloud 콘솔에서 부하 분산 페이지로 이동합니다.

    부하 분산으로 이동

  2. 부하 분산기 만들기를 클릭합니다.
  3. 부하 분산기 유형에서 애플리케이션 부하 분산기(HTTP/HTTPS)를 선택하고 다음을 클릭합니다.
  4. 공개 또는 내부에서 내부를 선택하고 다음을 클릭합니다.
  5. 리전 간 또는 단일 리전 배포리전 워크로드에 적합을 선택하고 다음을 클릭합니다.
  6. 구성을 클릭합니다.

기본 구성

  1. 부하 분산기 이름l7-ilb-map를 입력합니다.
  2. 리전에서 us-west1을 선택합니다.
  3. 네트워크에서 lb-network를 선택합니다.

프록시 전용 서브넷 예약

프록시 전용 서브넷 예약:

  1. 서브넷 예약을 클릭합니다.
  2. 이름proxy-only-subnet를 입력합니다.
  3. IP 주소 범위10.129.0.0/23을 입력합니다.
  4. 추가를 클릭합니다.

백엔드 서비스 구성

  1. 백엔드 구성을 클릭합니다.
  2. 백엔드 서비스 만들기 또는 선택 메뉴에서 백엔드 서비스 만들기를 선택합니다.
  3. 백엔드 서비스의 이름을 l7-ilb-backend-service로 설정합니다.
  4. 백엔드 유형인스턴스 그룹으로 설정합니다.
  5. 새 백엔드 섹션에서 다음을 수행합니다.
    1. 인스턴스 그룹l7-ilb-backend-example으로 설정합니다.
    2. 포트 번호80으로 설정합니다.
    3. 분산 모드사용률로 설정합니다.
    4. 완료를 클릭합니다.
  6. 상태 점검 목록에서 다음 매개변수가 있는 상태 점검 만들기를 클릭합니다.
    1. 이름: l7-ilb-basic-check
    2. 프로토콜: HTTP
    3. 포트: 80
    4. 저장을 클릭합니다.
  7. 만들기를 클릭합니다.

URL 맵 구성

  1. 호스트 및 경로 규칙을 클릭합니다.

  2. 모드에서 단순한 호스트 및 경로 규칙을 선택합니다.

  3. l7-ilb-backend-service가 일치하지 않는 모든 호스트 및 일치하지 않는 모든 경로에 대한 유일한 백엔드 서비스입니다.

트래픽 관리에 대한 자세한 내용은 트래픽 관리 설정을 참조하세요.

프런트엔드 구성

HTTP의 경우:

  1. 프런트엔드 구성을 클릭합니다.
  2. 전달 규칙의 이름을 l7-ilb-forwarding-rule로 설정합니다.
  3. 프로토콜HTTP로 설정합니다.
  4. 서브네트워크backend-subnet로 설정합니다.
  5. 포트80으로 설정합니다.
  6. IP 주소 목록에서 l7-ilb-ip-address를 선택합니다.
  7. 완료를 클릭합니다.

HTTPS의 경우:

  1. 프런트엔드 구성을 클릭합니다.
  2. 전달 규칙의 이름을 l7-ilb-forwarding-rule로 설정합니다.
  3. 프로토콜HTTPS (includes HTTP/2)로 설정합니다.
  4. 서브네트워크backend-subnet로 설정합니다.
  5. HTTPS 트래픽을 허용하도록 포트443으로 설정되어 있는지 확인합니다.
  6. IP 주소 목록에서 l7-ilb-ip-address를 선택합니다.
  7. 인증서 드롭다운 목록을 클릭합니다.
    1. 이미 기본 SSL 인증서로 사용할 자체 관리형 SSL 인증서 리소스가 있다면 목록에서 선택합니다.
    2. 그 이외의 경우 새 인증서 만들기를 선택합니다.
      1. 인증서 이름을 l7-ilb-cert로 설정합니다.
      2. 해당 필드에 다음 PEM 형식의 파일을 업로드합니다.
        • 공개 키 인증서
        • 인증서 체인
        • 비공개 키
      3. 만들기를 클릭합니다.
  8. 기본 SSL 인증서 리소스 외에 인증서 리소스를 추가하려면 다음 안내를 따르세요.
    1. 인증서 추가를 클릭합니다.
    2. 인증서 목록에서 인증서를 선택하거나 새 인증서 만들기를 클릭하고 안내를 따릅니다.
  9. SSL 정책 목록에서 SSL 정책을 선택합니다. 원하는 경우 SSL 정책을 만들려면 다음 단계를 따르세요.

    1. SSL 정책 목록에서 정책 만들기를 선택합니다.
    2. SSL 정책의 이름을 입력합니다.
    3. 최소 TLS 버전을 선택합니다. 기본값은 TLS 1.0입니다.
    4. 사전 구성된 Google 관리형 프로필 중 하나를 선택하거나 SSL 기능을 개별적으로 선택할 수 있는 커스텀 프로필을 선택합니다. 사용 설정된 기능사용 중지된 기능이 표시됩니다.
    5. 저장을 클릭합니다.

    SSL 정책을 만들지 않으면 기본 Google Cloud SSL 정책이 적용됩니다.

  10. 완료를 클릭합니다.

구성 검토

  1. 검토 및 완료를 클릭합니다.
  2. 부하 분산기 구성 설정을 검토합니다.
  3. 선택사항: 부하 분산기를 만드는 데 사용되는 REST API 요청을 보려면 상응하는 코드를 클릭합니다.
  4. 만들기를 클릭합니다.

gcloud

  1. gcloud compute health-checks create http 명령어로 HTTP 상태 점검을 정의합니다.

    gcloud compute health-checks create http l7-ilb-basic-check \
       --region=us-west1 \
       --use-serving-port
    
  2. gcloud compute backend-services create 명령어로 백엔드 서비스를 정의합니다.

    gcloud compute backend-services create l7-ilb-backend-service \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --protocol=HTTP \
      --health-checks=l7-ilb-basic-check \
      --health-checks-region=us-west1 \
      --region=us-west1
    
  3. gcloud compute backend-services add-backend 명령어로 백엔드 서비스에 백엔드를 추가합니다.

    gcloud compute backend-services add-backend l7-ilb-backend-service \
      --balancing-mode=UTILIZATION \
      --instance-group=l7-ilb-backend-example \
      --instance-group-zone=us-west1-a \
      --region=us-west1
    
  4. gcloud compute url-maps create 명령어로 URL 맵을 만듭니다.

    gcloud compute url-maps create l7-ilb-map \
      --default-service=l7-ilb-backend-service \
      --region=us-west1
    
  5. 대상 프록시를 만듭니다.

    HTTP의 경우:

    내부 HTTP 부하 분산기의 경우 gcloud compute target-http-proxies create 명령어로 대상 프록시를 만듭니다.

    gcloud compute target-http-proxies create l7-ilb-proxy \
      --url-map=l7-ilb-map \
      --url-map-region=us-west1 \
      --region=us-west1
    

    HTTPS의 경우:

    Compute Engine 또는 인증서 관리자 인증서를 만들 수 있습니다. 인증서 관리자를 사용하여 인증서를 만들려면 다음 방법 중 하나를 사용합니다.

    • 리전별 자체 관리형 인증서 리전별 자체 관리형 인증서 만들기 및 사용에 대한 자세한 내용은 리전별 자체 관리형 인증서 배포를 참조하세요. 인증서 맵은 지원되지 않습니다.

    • 리전별 Google 관리형 인증서. 인증서 맵은 지원되지 않습니다.

      인증서 관리자에서 지원되는 리전별 Google 관리형 인증서 유형은 다음과 같습니다.

    • 인증서를 만든 후 인증서를 대상 프록시에 직접 연결합니다.

      파일 경로를 변수 이름에 할당합니다.

      export LB_CERT=path to PEM-formatted file
      
      export LB_PRIVATE_KEY=path to PEM-formatted file
      

      gcloud compute ssl-certificates create 명령어를 사용하여 리전별 SSL 인증서를 만듭니다.

      gcloud compute ssl-certificates create l7-ilb-cert \
        --certificate=$LB_CERT \
        --private-key=$LB_PRIVATE_KEY \
        --region=us-west1
      

      리전별 SSL 인증서를 사용하여 gcloud compute target-https-proxies create 명령어로 대상 프록시를 만듭니다.

      gcloud compute target-https-proxies create l7-ilb-proxy \
        --url-map=l7-ilb-map \
        --region=us-west1 \
        --ssl-certificates=l7-ilb-cert
      
    • 전달 규칙을 만듭니다.

      커스텀 네트워크의 경우 전달 규칙에서 서브넷을 참조해야 합니다. 이때 참조할 서브넷은 프록시 서브넷이 아니라 VM 서브넷입니다.

      HTTP의 경우:

      올바른 플래그와 함께 gcloud compute forwarding-rules create 명령어를 사용합니다.

      gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
        --load-balancing-scheme=INTERNAL_MANAGED \
        --network=lb-network \
        --subnet=backend-subnet \
        --address=l7-ilb-ip-address \
        --ports=80 \
        --region=us-west1 \
        --target-http-proxy=l7-ilb-proxy \
        --target-http-proxy-region=us-west1
      

      HTTPS의 경우:

      올바른 플래그와 함께 gcloud compute forwarding-rules create 명령어를 사용하여 전달 규칙을 만듭니다.

      gcloud compute forwarding-rules create l7-ilb-forwarding-rule \
        --load-balancing-scheme=INTERNAL_MANAGED \
        --network=lb-network \
        --subnet=backend-subnet \
        --address=l7-ilb-ip-address \
        --ports=443 \
        --region=us-west1 \
        --target-https-proxy=l7-ilb-proxy \
        --target-https-proxy-region=us-west1
      

API

regionHealthChecks.insert 메서드에 POST 요청을 수행하여 상태 점검을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/{region}/healthChecks

{
"name": "l7-ilb-basic-check",
"type": "HTTP",
"httpHealthCheck": {
  "portSpecification": "USE_SERVING_PORT"
}
}

regionBackendServices.insert 메서드에 POST 요청을 수행하여 리전별 백엔드 서비스를 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-west1/backendServices

{
"name": "l7-ilb-backend-service",
"backends": [
  {
    "group": "projects/PROJECT_ID/zones/us-west1-a/instanceGroups/l7-ilb-backend-example",
    "balancingMode": "UTILIZATION"
  }
],
"healthChecks": [
  "projects/PROJECT_ID/regions/us-west1/healthChecks/l7-ilb-basic-check"
],
"loadBalancingScheme": "INTERNAL_MANAGED"
}

regionUrlMaps.insert 메서드에 POST 요청을 수행하여 URL 맵을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-west1/urlMaps

{
"name": "l7-ilb-map",
"defaultService": "projects/PROJECT_ID/regions/us-west1/backendServices/l7-ilb-backend-service"
}

HTTP의 경우:

regionTargetHttpProxies.insert 메서드에 POST 요청을 수행하여 대상 HTTP 프록시를 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-west1/targetHttpProxy

{
"name": "l7-ilb-proxy",
"urlMap": "projects/PROJECT_ID/global/urlMaps/l7-ilb-map",
"region": "us-west1"
}

forwardingRules.insert 메서드에 POST 요청을 수행하여 전달 규칙을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-west1/forwardingRules

{
"name": "l7-ilb-forwarding-rule",
"IPAddress": "IP_ADDRESS",
"IPProtocol": "TCP",
"portRange": "80-80",
"target": "projects/PROJECT_ID/regions/us-west1/targetHttpProxies/l7-ilb-proxy",
"loadBalancingScheme": "INTERNAL_MANAGED",
"subnetwork": "projects/PROJECT_ID/regions/us-west1/subnetworks/backend-subnet",
"network": "projects/PROJECT_ID/global/networks/lb-network",
"networkTier": "PREMIUM"
}

HTTPS의 경우:

Compute Engine 또는 인증서 관리자 인증서를 만들 수 있습니다. 인증서 관리자를 사용하여 인증서를 만들려면 다음 방법 중 하나를 사용합니다.

  • 리전별 자체 관리형 인증서 리전별 자체 관리형 인증서 만들기 및 사용에 대한 자세한 내용은 리전별 자체 관리형 인증서 배포를 참조하세요. 인증서 맵은 지원되지 않습니다.

  • 리전별 Google 관리형 인증서. 인증서 맵은 지원되지 않습니다.

    인증서 관리자에서 지원되는 리전별 Google 관리형 인증서 유형은 다음과 같습니다.

  • 인증서를 만든 후 인증서를 대상 프록시에 직접 연결합니다.

    인증서 및 비공개 키 파일을 읽은 다음 SSL 인증서를 만듭니다. 다음 예시에서는 Python을 사용하여 이 작업을 수행하는 방법을 보여줍니다.

    from pathlib import Path
    from pprint import pprint
    from typing import Union
    
    from googleapiclient import discovery
    
    
    def create_regional_certificate(
        project_id: str,
        region: str,
        certificate_file: Union[str, Path],
        private_key_file: Union[str, Path],
        certificate_name: str,
        description: str = "Certificate created from a code sample.",
    ) -> dict:
        """
        Create a regional SSL self-signed certificate within your Google Cloud project.
    
        Args:
            project_id: project ID or project number of the Cloud project you want to use.
            region: name of the region you want to use.
            certificate_file: path to the file with the certificate you want to create in your project.
            private_key_file: path to the private key you used to sign the certificate with.
            certificate_name: name for the certificate once it's created in your project.
            description: description of the certificate.
    
            Returns:
            Dictionary with information about the new regional SSL self-signed certificate.
        """
        service = discovery.build("compute", "v1")
    
        # Read the cert into memory
        with open(certificate_file) as f:
            _temp_cert = f.read()
    
        # Read the private_key into memory
        with open(private_key_file) as f:
            _temp_key = f.read()
    
        # Now that the certificate and private key are in memory, you can create the
        # certificate resource
        ssl_certificate_body = {
            "name": certificate_name,
            "description": description,
            "certificate": _temp_cert,
            "privateKey": _temp_key,
        }
        request = service.regionSslCertificates().insert(
            project=project_id, region=region, body=ssl_certificate_body
        )
        response = request.execute()
        pprint(response)
    
        return response
    
    

    regionTargetHttpsProxies.insert 메서드에 POST 요청을 수행하여 대상 HTTPS 프록시를 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

    POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-west1/regionTargetHttpsProxy
    
    {
    "name": "l7-ilb-proxy",
    "urlMap": "projects/PROJECT_ID/regions/us-west1/urlMaps/l7-ilb-map",
    "sslCertificates": /projects/PROJECT_ID/regions/us-west1/sslCertificates/SSL_CERT_NAME
    }
    

    forwardingRules.insert 메서드에 POST 요청을 수행하여 전달 규칙을 만듭니다. 여기서 PROJECT_ID는 프로젝트 ID로 바꿉니다.

    POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-west1/forwardingRules
    
    {
    "name": "l7-ilb-forwarding-rule",
    "IPAddress": "IP_ADDRESS",
    "IPProtocol": "TCP",
    "portRange": "80-80",
    "target": "projects/PROJECT_ID/regions/us-west1/targetHttpsProxies/l7-ilb-proxy",
    "loadBalancingScheme": "INTERNAL_MANAGED",
    "subnetwork": "projects/PROJECT_ID/regions/us-west1/subnetworks/backend-subnet",
    "network": "projects/PROJECT_ID/global/networks/lb-network",
    "networkTier": "PREMIUM",
    }
    

부하 분산기 테스트

부하 분산기를 테스트하려면 클라이언트 VM을 만듭니다. 그런 다음 VM으로 SSH 세션을 설정하고 VM에서 부하 분산기로 트래픽을 전송합니다.

VM 인스턴스를 생성하여 연결 테스트

콘솔

  1. Google Cloud 콘솔에서 VM 인스턴스 페이지로 이동합니다.

    VM 인스턴스로 이동

  2. 인스턴스 만들기를 클릭합니다.

  3. 이름l7-ilb-client-us-west1-a으로 설정합니다.

  4. 영역us-west1-a로 설정합니다.

  5. 고급 옵션을 클릭합니다.

  6. 네트워킹을 클릭하고 다음 필드를 구성합니다.

    1. 네트워크 태그allow-ssh를 입력합니다.
    2. 네트워크 인터페이스에 다음을 선택합니다.
      1. 네트워크: lb-network
      2. 서브넷: backend-subnet
  7. 만들기를 클릭합니다.

gcloud

gcloud compute instances create l7-ilb-client-us-west1-a \
    --image-family=debian-12 \
    --image-project=debian-cloud \
    --network=lb-network \
    --subnet=backend-subnet \
    --zone=us-west1-a \
    --tags=allow-ssh

부하 분산기로 트래픽 전송

위에서 만든 인스턴스에 로그인한 후 리전 내부 애플리케이션 부하 분산기의 전달 규칙 IP 주소를 사용해 백엔드의 HTTP(S) 서비스에 연결할 수 있는지 그리고 백엔드 인스턴스 전체에 트래픽이 부하 분산되는지 테스트합니다.

각 클라이언트 인스턴스에 SSH를 통해 연결

gcloud compute ssh l7-ilb-client-us-west1-a \
    --zone=us-west1-a

부하 분산기의 IP 주소 가져오기

gcloud compute addresses describe 명령어를 사용하여 할당된 IP 주소를 봅니다.

gcloud compute addresses describe l7-ilb-ip-address \
    --region=us-west1

IP 주소가 호스트 이름을 제공하는지 확인합니다.

IP_ADDRESS를 부하 분산기의 IP 주소로 바꿉니다.

curl IP_ADDRESS

HTTPS 테스트의 경우 curl을 다음으로 바꿉니다.

curl -k -s 'https://test.example.com:443' --connect-to test.example.com:443:IP_ADDRESS:443

-k 플래그로 인해 curl이 인증서 유효성 검사를 건너뜁니다.

100개의 요청을 실행하고 부하 분산되었는지 확인

IP_ADDRESS를 부하 분산기의 IP 주소로 바꿉니다.

HTTP의 경우:

{
  RESULTS=
  for i in {1..100}
  do
      RESULTS="$RESULTS:$(curl --silent IP_ADDRESS)"
  done
  echo "***"
  echo "*** Results of load-balancing: "
  echo "***"
  echo "$RESULTS" | tr ':' '\n' | grep -Ev "^$" | sort | uniq -c
  echo
}

HTTPS의 경우:

{
  RESULTS=
  for i in {1..100}
  do
      RESULTS="$RESULTS:$(curl -k -s 'https://test.example.com:443' --connect-to test.example.com:443:IP_ADDRESS:443)"
  done
  echo "***"
  echo "*** Results of load-balancing: "
  echo "***"
  echo "$RESULTS" | tr ':' '\n' | grep -Ev "^$" | sort | uniq -c
  echo
}

추가 구성 옵션

이 섹션에서는 대체 및 추가 구성 옵션을 제공하는 구성 예시를 살펴봅니다. 모든 태스크는 선택사항입니다. 원하는 순서대로 수행할 수 있습니다.

전역 액세스 사용 설정

모든 리전의 클라이언트에서 액세스할 수 있도록 리전 내부 애플리케이션 부하 분산기와 리전 내부 프록시 네트워크 부하 분산기에 전역 액세스를 사용 설정할 수 있습니다. 예시 부하 분산기의 백엔드는 계속 하나의 리전(us-west1)에 있어야 합니다.

전역 액세스를 사용하는 리전 내부 애플리케이션 부하 분산기
전역 액세스를 사용하는 리전 내부 애플리케이션 부하 분산기(확대하려면 클릭)

전역 액세스를 사용 설정하기 위해 기존 리전 전달 규칙을 수정할 수 없습니다. 이 용도의 새 전달 규칙을 만들고 이전 전달 규칙을 삭제해야 합니다. 또한 전역 액세스가 사용 설정된 전달 규칙을 만든 후에는 이 규칙을 수정할 수 없습니다. 전역 액세스를 중지하려면 새 리전 액세스 전달 규칙을 만들고 이전 전역 액세스 전달 규칙을 삭제해야 합니다.

전역 액세스를 구성하려면 다음과 같이 구성을 변경합니다.

콘솔

부하 분산기에 새로운 전달 규칙을 만듭니다.

  1. Google Cloud 콘솔에서 부하 분산 페이지로 이동합니다.

    부하 분산으로 이동

  2. 이름 열에서 부하 분산기를 클릭합니다.

  3. 프런트엔드 구성을 클릭합니다.

  4. 프런트엔드 IP 및 포트 추가를 클릭합니다.

  5. 새 전달 규칙의 이름과 서브넷 세부정보를 입력합니다.

  6. 서브네트워크에서 backend-subnet을 선택합니다.

  7. IP 주소에서 기존 전달 규칙과 동일한 IP 주소를 선택하거나 새 IP 주소를 예약하거나 임시 IP 주소를 사용할 수 있습니다. IP 주소를 만드는 동안 IP 주소 --purpose 플래그를 SHARED_LOADBALANCER_VIP로 설정한 경우에만 여러 전달 규칙에서 동일한 IP 주소를 공유할 수 있습니다.

  8. 포트 번호110을 입력합니다.

  9. 전역 액세스사용 설정을 선택합니다.

  10. 완료를 클릭합니다.

  11. 업데이트를 클릭합니다.

gcloud

  1. --allow-global-access 플래그를 사용하여 부하 분산기의 새 전달 규칙을 만듭니다.

    HTTP의 경우:

    gcloud compute forwarding-rules create l7-ilb-forwarding-rule-global-access \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=lb-network \
      --subnet=backend-subnet \
      --address=10.1.2.99 \
      --ports=80 \
      --region=us-west1 \
      --target-http-proxy=l7-ilb-proxy \
      --target-http-proxy-region=us-west1 \
      --allow-global-access
    

    HTTPS의 경우:

    gcloud compute forwarding-rules create l7-ilb-forwarding-rule-global-access \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=lb-network \
      --subnet=backend-subnet \
      --address=10.1.2.99 \
      --ports=443 \
      --region=us-west1 \
      --target-https-proxy=l7-ilb-proxy \
      --target-https-proxy-region=us-west1 \
      --allow-global-access
    
  2. gcloud compute forwarding-rules describe 명령어를 사용하여 전달 규칙에 전역 액세스가 사용 설정되어 있는지 확인할 수 있습니다. 예를 들면 다음과 같습니다.

    gcloud compute forwarding-rules describe l7-ilb-forwarding-rule-global-access \
      --region=us-west1 \
      --format="get(name,region,allowGlobalAccess)"
    

    전역 액세스가 사용 설정되면 출력에서 전달 규칙의 이름과 리전 뒤에 True 단어가 표시됩니다.

전역 액세스를 테스트하도록 클라이언트 VM 만들기

콘솔

  1. Google Cloud 콘솔에서 VM 인스턴스 페이지로 이동합니다.

    VM 인스턴스로 이동

  2. 인스턴스 만들기를 클릭합니다.

  3. 이름europe-client-vm으로 설정합니다.

  4. 영역europe-west1-b로 설정합니다.

  5. 고급 옵션을 클릭합니다.

  6. 네트워킹을 클릭하고 다음 필드를 구성합니다.

    1. 네트워크 태그allow-ssh를 입력합니다.
    2. 네트워크 인터페이스에 다음을 선택합니다.
      • 네트워크: lb-network
      • 서브넷: europe-subnet
  7. 만들기를 클릭합니다.

gcloud

europe-west1-b 영역에 클라이언트 VM을 만듭니다.

gcloud compute instances create europe-client-vm \
    --zone=europe-west1-b \
    --image-family=debian-12 \
    --image-project=debian-cloud \
    --tags=allow-ssh \
    --subnet=europe-subnet

VM 클라이언트에 연결 및 연결 테스트

  1. ssh를 사용하여 클라이언트 인스턴스에 연결합니다.

    gcloud compute ssh europe-client-vm \
        --zone=europe-west1-b
    
  2. us-west1 리전의 vm-client에서 수행한 것과 같이 부하 분산기 연결을 테스트합니다.

    curl http://10.1.2.99
    

세션 어피니티 사용 설정

이 절차에서는 백엔드 서비스가 생성된 쿠키 어피니티, 헤더 필드 어피니티 또는 HTTP 쿠키 어피니티를 사용하도록 예시 리전 내부 애플리케이션 부하 분산기 또는 리전 간 내부 애플리케이션 부하 분산기의 백엔드 서비스를 업데이트하는 방법을 보여줍니다.

생성된 쿠키 어피니티가 사용 설정되면 부하 분산기는 첫 번째 요청에서 쿠키를 생성합니다. 동일한 쿠키를 사용하는 각 후속 요청의 경우 부하 분산기는 같은 백엔드 가상 머신(VM) 인스턴스 또는 엔드포인트로 요청을 전달합니다. 이 예시에서 쿠키 이름은 GCILB입니다.

헤더 필드 어피니티가 사용 설정되면 부하 분산기는 --custom-request-header 플래그에 이름이 지정된 HTTP 헤더의 값에 따라 네트워크 엔드포인트 그룹(NEG)의 백엔드 VM 또는 엔드포인트로 요청을 라우팅합니다. 헤더 필드 어피니티는 부하 분산 지역 정책이 RING_HASH 또는 MAGLEV이고 백엔드 서비스의 일관된 해시가 HTTP 헤더의 이름을 지정하는 경우에만 유효합니다.

HTTP 쿠키 어피니티가 사용 설정되면 부하 분산기는 선택 사항인 --affinity-cookie-ttl 플래그와 함께 HTTP_COOKIE 플래그에 이름이 지정된 HTTP 쿠키에 따라 NEG의 백엔드 VM 또는 엔드포인트로 요청을 라우팅합니다. 클라이언트가 HTTP 요청에 쿠키를 제공하지 않으면 프록시가 쿠키를 생성하여 Set-Cookie 헤더에 있는 클라이언트로 반환합니다. HTTP 쿠키 어피니티는 부하 분산 지역 정책이 RING_HASH 또는 MAGLEV이고 백엔드 서비스의 일관된 해시가 HTTP 쿠키를 지정하는 경우에만 유효합니다.

콘솔

백엔드 서비스의 세션 어피니티를 사용 설정하거나 변경하려면 다음 안내를 따르세요.

  1. Google Cloud 콘솔에서 부하 분산 페이지로 이동합니다.

    부하 분산으로 이동

  2. 백엔드를 클릭합니다.
  3. l7-ilb-backend-service(이 예시에서 만든 백엔드 서비스 이름)를 클릭하고 수정을 클릭합니다.
  4. 백엔드 서비스 세부정보 페이지에서 고급 구성을 클릭합니다.
  5. 세션 어피니티에서 원하는 세션 어피니티 유형을 선택합니다.
  6. 업데이트를 클릭합니다.

gcloud

다음 Google Cloud CLI 명령어를 사용하여 백엔드 서비스를 다른 유형의 세션 어피니티로 업데이트합니다.

    gcloud compute backend-services update l7-ilb-backend-service \
        --session-affinity=[GENERATED_COOKIE | HEADER_FIELD | HTTP_COOKIE | CLIENT_IP] \
        --region=us-west1
    

API

세션 어피니티를 설정하려면 `PATCH` 요청을 backendServices/patch 메서드로 보냅니다.

    PATCH https://compute.googleapis.com/compute/v1/projects/[PROJECT_ID]/regions/us-west1/regionBackendServices/l7-ilb-backend-service
    {
      "sessionAffinity": ["GENERATED_COOKIE" | "HEADER_FIELD" | "HTTP_COOKIE" | "CLIENT_IP" ]
    }
    

트래픽을 부하 분산기로 전송할 수 있는 클라이언트 제한

클라이언트에서 이그레스 방화벽 규칙을 구성하여 클라이언트가 내부 애플리케이션 부하 분산기 전달 규칙 VIP에 연결할 수 없도록 제한할 수 있습니다. 이러한 방화벽 규칙을 서비스 계정 또는 태그를 기반으로 특정 클라이언트 VM에 설정합니다.

방화벽 규칙을 사용하여 특정 내부 애플리케이션 부하 분산기 전달 규칙 VIP로 인바운드 트래픽을 제한할 수 없습니다. 전달 규칙 VIP와 동일한 VPC 네트워크 및 동일한 리전에 있는 모든 클라이언트는 일반적으로 전달 규칙 VIP로 트래픽을 전송할 수 있습니다.

또한 백엔드에 대한 모든 요청은 프록시 전용 서브넷의 IP 주소를 사용하는 프록시에서 옵니다. 클라이언트가 사용하는 전달 규칙 VIP에 따라 백엔드의 인그레스 트래픽을 허용하거나 거부하는 방화벽 규칙을 만들 수 없습니다.

다음은 이그레스 방화벽 규칙을 사용하여 부하 분산기의 전달 규칙 VIP로의 트래픽을 제한하는 몇 가지 예시입니다.

콘솔

클라이언트 VM을 식별하려면 제한하려는 특정 VM에 태그를 지정합니다. 이러한 태그는 방화벽 규칙을 태그된 클라이언트 VM과 연결하는 데 사용됩니다. 그런 후 다음 단계의 TARGET_TAG 필드에 태그를 지정합니다.

단일 방화벽 규칙 또는 여러 규칙을 사용하여 설정합니다.

단일 이그레스 방화벽 규칙

태그가 지정된 클라이언트 VM에서 부하 분산기의 VIP로 전송되는 모든 이그레스 트래픽을 거부하도록 방화벽 이그레스 규칙 하나를 구성할 수 있습니다.

  1. Google Cloud 콘솔에서 방화벽 규칙 페이지로 이동합니다.

    방화벽 규칙으로 이동

  2. 방화벽 규칙 만들기를 클릭하여 태그가 지정된 클라이언트 VM에서 부하 분산기의 VIP로의 이그레스 트래픽을 거부하는 규칙을 만듭니다.

    • 이름: fr-deny-access
    • 네트워크: lb-network
    • 우선순위: 100
    • 트래픽 방향: 이그레스
    • 일치 시 작업: 거부
    • 대상: 지정된 대상 태그
    • 대상 태그: TARGET_TAG
    • 대상 필터: IP 범위
    • 도착 IP 범위: 10.1.2.99
    • 프로토콜 및 포트:
      • 지정된 프로토콜 및 포트를 선택합니다.
      • tcp 체크박스를 선택한 후 포트 번호에 80을 입력합니다.
  3. 만들기를 클릭합니다.

다중 이그레스 방화벽 규칙

보다 확장 가능한 접근 방식은 두 가지 규칙을 설정하는 것입니다. 모든 클라이언트가 부하 분산기의 VIP에 액세스하는 것을 제한하는 우선순위가 낮은 기본 규칙입니다. 태그가 지정된 클라이언트의 하위 집합이 부하 분산기의 VIP에 액세스할 수 있는 우선순위가 높은 두 번째 규칙입니다. 태그가 지정된 VM만 VIP에 액세스할 수 있습니다.

  1. Google Cloud 콘솔에서 방화벽 규칙 페이지로 이동합니다.

    방화벽 규칙으로 이동

  2. 방화벽 규칙 만들기를 클릭하여 기본적으로 액세스를 거부하는 우선순위가 낮은 규칙을 만듭니다.

    • 이름: fr-deny-all-access-low-priority
    • 네트워크: lb-network
    • 우선순위: 200
    • 트래픽 방향: 이그레스
    • 일치 시 작업: 거부
    • 대상: 지정된 대상 태그
    • 대상 태그: TARGET_TAG
    • 대상 필터: IP 범위
    • 도착 IP 범위: 10.1.2.99
    • 프로토콜 및 포트:
      • 지정된 프로토콜 및 포트를 선택합니다.
      • TCP 체크박스를 선택한 후 포트 번호에 80을 입력합니다.
  3. 만들기를 클릭합니다.

  4. 방화벽 규칙 만들기를 클릭하여 태그가 지정된 특정 인스턴스의 트래픽을 허용하는 우선순위가 더 높은 규칙을 만듭니다.

    • 이름: fr-allow-some-access-high-priority
    • 네트워크: lb-network
    • 우선순위: 100
    • 트래픽 방향: 이그레스
    • 일치 시 작업: 허용
    • 대상: 지정된 대상 태그
    • 대상 태그: TARGET_TAG
    • 대상 필터: IP 범위
    • 도착 IP 범위: 10.1.2.99
    • 프로토콜 및 포트:
      • 지정된 프로토콜 및 포트를 선택합니다.
      • TCP 체크박스를 선택한 후 포트 번호에 80을 입력합니다.
  5. 만들기를 클릭합니다.

gcloud

클라이언트 VM을 식별하려면 제한하려는 특정 VM에 태그를 지정합니다. 그런 다음 이 단계의 TARGET_TAG 필드에 태그를 추가합니다.

단일 방화벽 규칙 또는 여러 규칙을 사용하여 설정합니다.

단일 이그레스 방화벽 규칙

태그가 지정된 클라이언트 VM에서 부하 분산기의 VIP로 전송되는 모든 이그레스 트래픽을 거부하도록 방화벽 이그레스 규칙 하나를 구성할 수 있습니다.

gcloud compute firewall-rules create fr-deny-access \
  --network=lb-network \
  --action=deny \
  --direction=egress \
  --rules=tcp \
  --priority=100 \
  --destination-ranges=10.1.2.99 \
  --target-tags=TARGET_TAG

다중 이그레스 방화벽 규칙

보다 확장 가능한 접근 방식에서는 두 가지 규칙을 설정합니다. 즉, 모든 클라이언트가 부하 분산기의 VIP에 액세스하는 것을 제한하는 우선순위가 낮은 기본 규칙과 태그가 지정된 클라이언트의 하위 집합이 부하 분산기의 VIP에 액세스할 수 있도록 허용하는 우선순위가 높은 보조 규칙입니다. 태그가 지정된 VM만 VIP에 액세스할 수 있습니다.

  1. 우선순위가 낮은 규칙 만들기:

    gcloud compute firewall-rules create fr-deny-all-access-low-priority \
      --network=lb-network \
      --action=deny \
      --direction=egress \
      --rules=tcp \
      --priority=200 \
      --destination-ranges=10.1.2.99
    
  2. 우선순위가 더 높은 규칙 만들기:

    gcloud compute firewall-rules create fr-allow-some-access-high-priority \
      --network=lb-network \
      --action=allow \
      --direction=egress \
      --rules=tcp \
      --priority=100 \
      --destination-ranges=10.1.2.99 \
      --target-tags=TARGET_TAG
    

액세스를 제어하는 태그 대신 서비스 계정을 사용하려면 방화벽 규칙을 만들 때 --target-tags 플래그 대신 --target-service-accounts 옵션을 사용하면 됩니다.

서브넷을 기반으로 내부 애플리케이션 부하 분산기 백엔드에 대한 제한된 액세스 확장

전달 규칙 수가 늘어나면 이전 섹션에서 설명한 대로 별도의 방화벽 규칙을 유지하거나 기존 규칙에 새 부하 분산된 IP 주소를 추가하기가 불편해집니다. 이를 방지하는 한 가지 방법은 예약된 서브넷에서 전달 규칙 IP 주소를 할당하는 것입니다. 예약된 서브넷을 방화벽 규칙의 대상 범위로 사용하여 태그가 지정된 인스턴스 또는 서비스 계정의 트래픽을 허용하거나 차단할 수 있습니다. 이렇게 하면 VIP당 방화벽 이그레스 규칙을 유지하지 않고도 전달 규칙 VIP 그룹에 대한 액세스를 효과적으로 제어할 수 있습니다.

다른 모든 필수 부하 분산기 리소스를 별도로 만들 예정인 경우 이를 설정하기 위한 대략적인 단계는 다음과 같습니다.

gcloud

  1. 전달 규칙에 부하 분산 IP 주소를 할당하는 데 사용할 리전 서브넷을 만듭니다.

    gcloud compute networks subnets create l7-ilb-restricted-subnet \
      --network=lb-network \
      --region=us-west1 \
      --range=10.127.0.0/24
    
  2. 서브넷에서 주소를 가져오는 전달 규칙을 만듭니다. 다음 예시에서는 이전 단계에서 만든 서브넷의 10.127.0.1 주소를 사용합니다.

    gcloud compute forwarding-rules create l7-ilb-forwarding-rule-restricted \
      --load-balancing-scheme=INTERNAL_MANAGED \
      --network=lb-network \
      --subnet=l7-ilb-restricted-subnet \
      --address=10.127.0.1 \
      --ports=80 \
      --region=us-west1 \
      --target-http-proxy=l7-ilb-proxy \
      --target-http-proxy-region=us-west1
    

  3. 방화벽 규칙을 만들어 전달 규칙 서브넷(l7-ilb-restricted-subnet)에서 범위 IP 주소로 향하는 트래픽을 제한합니다.

    gcloud compute firewall-rules create restrict-traffic-to-subnet \
      --network=lb-network \
      --action=deny \
      --direction=egress \
      --rules=tcp:80 \
      --priority=100 \
      --destination-ranges=10.127.0.0/24 \
      --target-tags=TARGET_TAG
    

백엔드 하위 설정 구성

백엔드 하위 설정에서는 각 프록시 인스턴스에 백엔드 하위 집합을 할당하여 성능과 확장성을 개선합니다. 백엔드 서비스에 사용 설정하면 백엔드 하위 설정에서 각 프록시 인스턴스에서 사용하는 백엔드 수를 다음과 같이 조정합니다.

  • 부하 분산기에 참여하는 프록시 인스턴스 수가 증가하면 하위 집합 크기가 줄어듭니다.

  • 네트워크에서 총 백엔드 수가 단일 프록시 인스턴스의 용량을 초과하면 백엔드 하위 설정이 사용 설정된 각 서비스에 대해 하위 집합 크기가 자동으로 줄어듭니다.

이 예시에서는 리전 내부 애플리케이션 부하 분산기 리소스를 만들고 백엔드 하위 설정을 사용 설정하는 방법을 보여줍니다.

  1. 구성 예시를 사용하여 리전별 백엔드 서비스 l7-ilb-backend-service를 만듭니다.
  2. --subsetting-policy 플래그를 CONSISTENT_HASH_SUBSETTING으로 지정하여 백엔드 하위 설정을 사용 설정합니다. 부하 분산 스키마를 INTERNAL_MANAGED로 설정합니다.

    gcloud

    다음 gcloud 명령어를 사용하여 백엔드 하위 설정으로 l7-ilb-backend-service를 업데이트합니다.

    gcloud beta compute backend-services update l7-ilb-backend-service \
       --region=us-west1 \
       --subsetting-policy=CONSISTENT_HASH_SUBSETTING
    

    API

    regionBackendServices/patch 메서드에 대해 PATCH 요청을 실행합니다.

    PATCH https://compute.googleapis.com/compute/beta/projects/PROJECT_ID/regions/us-west1/backendServices/l7-ilb-backend-service
    
    {
     "subsetting":
    {
     "policy": CONSISTENT_HASH_SUBSETTING
    }
    }
    

localityLbPolicy 정책을 설정하여 백엔드 부하 분산을 세분화할 수도 있습니다. 자세한 내용은 트래픽 정책을 참조하세요.

여러 내부 전달 규칙 간에 동일한 IP 주소 사용

여러 내부 전달 규칙이 동일한 내부 IP 주소를 공유하려면 IP 주소를 예약하고 --purpose 플래그를 SHARED_LOADBALANCER_VIP로 설정해야 합니다.

gcloud

gcloud compute addresses create SHARED_IP_ADDRESS_NAME \
    --region=REGION \
    --subnet=SUBNET_NAME \
    --purpose=SHARED_LOADBALANCER_VIP
HTTP 트래픽을 HTTPS로 리디렉션해야 하는 경우 공통 IP 주소를 사용하는 전달 규칙 두 개를 만들 수 있습니다. 자세한 내용은 내부 애플리케이션 부하 분산기에 HTTP-HTTPS 리디렉션 설정을 참조하세요.

클라이언트 HTTP 연결 유지 제한 시간 업데이트

이전 단계에서 만든 부하 분산기는 클라이언트 HTTP 연결 유지 제한 시간의 기본값으로 구성되었습니다.

클라이언트 HTTP 연결 유지 제한 시간을 업데이트하려면 다음 안내를 따르세요.

콘솔

  1. Google Cloud 콘솔에서 부하 분산 페이지로 이동합니다.

    부하 분산으로 이동

  2. 수정할 부하 분산기의 이름을 클릭합니다.
  3. 수정을 클릭합니다.
  4. 프런트엔드 구성을 클릭합니다.
  5. 고급 기능을 펼칩니다. HTTP 연결 유지 제한 시간에 제한 시간 값을 입력합니다.
  6. 업데이트를 클릭합니다.
  7. 변경사항을 검토하려면 검토 및 완료를 클릭한 다음 업데이트를 클릭합니다.

gcloud

HTTP 부하 분산기의 경우 gcloud compute target-http-proxies update 명령어를 사용하여 대상 HTTP 프록시를 업데이트합니다.

      gcloud compute target-http-proxies update TARGET_HTTP_PROXY_NAME \
         --http-keep-alive-timeout-sec=HTTP_KEEP_ALIVE_TIMEOUT_SEC \
         --region=REGION
      

HTTPS 부하 분산기의 경우 gcloud compute target-https-proxies update 명령어를 사용하여 대상 HTTPS 프록시를 업데이트합니다.

      gcloud compute target-https-proxies update TARGET_HTTP_PROXY_NAME \
         --http-keep-alive-timeout-sec=HTTP_KEEP_ALIVE_TIMEOUT_SEC \
         --region REGION
      

다음을 바꿉니다.

  • TARGET_HTTP_PROXY_NAME: 대상 HTTP 프록시의 이름입니다.
  • TARGET_HTTPS_PROXY_NAME: 대상 HTTPS 프록시의 이름입니다.
  • HTTP_KEEP_ALIVE_TIMEOUT_SEC: HTTP 연결 유지 제한 시간 값은 5~600초 사이입니다.

다음 단계