기본적으로 중첩된 가상화가 허용되므로 다른 사용자가 중첩된 가상화의 제약조건을 수정하지 않는 한 조직, 폴더 또는 프로젝트에서 중첩된 VM을 만들기 전에는 변경할 필요가 없습니다. 프로젝트가 조직에 속하지 않는 경우 중첩된 가상화가 기본적으로 허용되며 제약조건을 변경할 수 없습니다. 중첩된 VM을 만들 수 있는지 여부를 결정하는 제약조건을 수정하는 방법은 중첩된 가상화 제약조건 관리를 참조하세요.
이 문서에서는 다양한 유형의 수준 2(L2) 가상 머신(VM) 인스턴스를 만드는 방법을 설명합니다. 중첩된 VM을 만들기 전에 중첩된 가상화가 사용 설정된 L1 VM을 만들어야 합니다. L1 및 L2 VM에 대한 설명은 중첩된 가상화 개요를 참조하세요.
중첩된 가상화가 사용 설정된 L1 VM을 만든 후에는 다음 중 하나를 수행할 수 있습니다.
- 외부 네트워크 액세스로 L2 VM 만들기
- L1 VM에 대한 비공개 네트워크 브리지가 있는 L2 VM 만들기
- L1 VM 외부에서 네트워크 액세스로 L2 VM 만들기
시작하기 전에
-
아직 인증을 설정하지 않았다면 설정합니다.
인증은 Google Cloud 서비스 및 API에 액세스하기 위해 ID를 확인하는 프로세스입니다.
로컬 개발 환경에서 코드 또는 샘플을 실행하려면 다음과 같이 Compute Engine에 인증하면 됩니다.
Select the tab for how you plan to use the samples on this page:
gcloud
-
Install the Google Cloud CLI, then initialize it by running the following command:
gcloud init
- Set a default region and zone.
gcloud compute ssh
명령어를 사용하여 VM에 연결합니다.gcloud compute ssh VM_NAME
VM_NAME
을 연결할 VM의 이름으로 바꿉니다.최신
qemu-kvm
패키지를 설치합니다.sudo apt update && sudo apt install qemu-kvm -y
L2 VM에 사용할 QEMU 호환 OS 이미지를 다운로드합니다.
다음 명령어를 사용하여 L2 VM을 시작합니다. 메시지가 표시되면
user: root
,password: root
로 로그인합니다.sudo qemu-system-x86_64 -enable-kvm -hda IMAGE_NAME -m 512 -curses
IMAGE_NAME
을 L2 VM에 사용할 QEMU 호환 OS 이미지의 이름으로 바꿉니다.L2 VM에 외부 액세스가 포함되는지 테스트합니다.
user@nested-vm:~$ host google.com
gcloud compute ssh
명령어를 사용하여 VM에 연결합니다.gcloud compute ssh VM_NAME
VM_NAME
을 연결할 VM의 이름으로 바꿉니다.비공개 브리지를 만드는 데 필요한 패키지를 설치합니다.
sudo apt update && sudo apt install uml-utilities qemu-kvm bridge-utils virtinst libvirt-daemon-system libvirt-clients -y
libvirt
패키지에 제공되는 기본 네트워크를 시작합니다.sudo virsh net-start default
다음 명령어를 실행하여
virbr0
브리지가 있는지 확인합니다.ip addr
출력은 다음과 비슷합니다.
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000 link/ether 42:01:0a:80:00:15 brd ff:ff:ff:ff:ff:ff inet 10.128.0.21/32 brd 10.128.0.21 scope global eth0 valid_lft forever preferred_lft forever inet6 fe80::4001:aff:fe80:15/64 scope link valid_lft forever preferred_lft forever 3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default qlen 1000 link/ether 52:54:00:8c:a6:a1 brd ff:ff:ff:ff:ff:ff inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0 valid_lft forever preferred_lft forever 4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN group default qlen 1000 link/ether 52:54:00:8c:a6:a1 brd ff:ff:ff:ff:ff:ff
tap
인터페이스를 만들어 L1 VM에서 L2 VM으로 이동합니다.sudo tunctl -t tap0 sudo ifconfig tap0 up
tap
인터페이스를 비공개 브리지에 결합합니다.sudo brctl addif virbr0 tap0
다음 명령어를 실행하여 브리지 네트워크의 설정을 확인합니다.
sudo brctl show
출력은 다음과 비슷합니다.
bridge name bridge id STP enabled interfaces virbr0 8000.5254008ca6a1 yes tap0 virbr0-nic
L2 VM에 사용할 QEMU 호환 OS 이미지를 다운로드합니다.
screen
을 실행하고 환영 메시지가 표시되면 Enter 키를 누릅니다.screen
다음 명령어를 사용하여 L2 VM을 시작합니다. 메시지가 표시되면
user: root
,password: root
로 로그인합니다.sudo qemu-system-x86_64 -enable-kvm -hda IMAGE_NAME -m 512 -net nic -net tap,ifname=tap0,script=no -curses
IMAGE_NAME
을 L2 VM에 사용할 QEMU 호환 OS 이미지의 이름으로 바꿉니다.L2 VM에서
ip addr show
를 실행하여 VM 주소가virbr0
공간에 있는지 확인합니다(예:192.168.122.89
).user@nested-vm:~$ ip addr
포트
8000
에서 자리표시자 웹 서버를 시작합니다.user@nested-vm:~$ python -m http.server
Ctrl+A
,Ctrl+D
를 사용하여screen
세션에서 분리합니다.다음 IP 주소를 L2 VM의 IP 주소로 바꿔 L1 VM이 L2 VM을 핑할 수 있는지 테스트합니다.
curl 192.168.122.89:8000
출력은 다음과 비슷합니다.
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 3.2 Final//EN"><html> <title>Directory listing for /</title> <body> <h2>Directory listing for /</h2> <hr> <ol> <li><a href=".aptitude/">.aptitude/</a> <li><a href=".bashrc">.bashrc</a> <li><a href=".profile">.profile</a> </ol> <hr> </body> </html>
중첩된 가상화가 사용 설정된 L1 VM을 만들고 별칭 IP 범위와 HTTP/HTTPS 트래픽 지원을 포함합니다.
gcloud
gcloud compute instances create VM_NAME --enable-nested-virtualization \ --tags http-server,https-server --can-ip-forward \ --min-cpu-platform "Intel Haswell" \ --network-interface subnet=subnet1,aliases=/30
VM_NAME
을 L1 VM 이름으로 바꿉니다.REST
POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances { ... "name": VM_NAME, "tags": { "items": [ http-server,https-server ], }, "canIpForward": true, "networkInterfaces": [ { "subnetwork": "subnet1", "aliasIpRanges": [ { "ipCidrRange": "/30" } ], } ], "minCpuPlatform": "Intel Haswell", "advancedMachineFeatures": { "enableNestedVirtualization": true }, ... }
다음을 바꿉니다.
PROJECT_ID
: 프로젝트 IDZONE
: VM을 만들 영역VM_NAME
: VM의 이름입니다.
gcloud compute ssh
명령어를 사용하여 VM에 연결합니다. VM에 연결하는 데 문제가 발생하면 VM을 재설정하거나 방화벽 규칙을 수정해 보세요.gcloud compute ssh VM_NAME
VM_NAME
을 연결할 VM의 이름으로 바꿉니다.VM을 업데이트하고 필요한 패키지를 설치합니다.
sudo apt update && sudo apt install uml-utilities qemu-kvm bridge-utils virtinst libvirt-daemon-system libvirt-clients -y
libvirt
패키지에 제공되는 기본 네트워크를 시작합니다.sudo virsh net-start default
다음 명령어를 실행하여
virbr0
브리지가 있는지 확인합니다.user@nested-vm:~$ ip addr
다음과 비슷한 출력이 표시되는지 확인합니다.
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000 link/ether 42:01:0a:80:00:15 brd ff:ff:ff:ff:ff:ff inet 10.128.0.21/32 brd 10.128.0.21 scope global eth0 valid_lft forever preferred_lft forever inet6 fe80::4001:aff:fe80:15/64 scope link valid_lft forever preferred_lft forever 3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default qlen 1000 link/ether 52:54:00:8c:a6:a1 brd ff:ff:ff:ff:ff:ff inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0 valid_lft forever preferred_lft forever 4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN group default qlen 1000 link/ether 52:54:00:8c:a6:a1 brd ff:ff:ff:ff:ff:ff
tap
인터페이스를 만들어 L1 VM에서 L2 VM으로 이동합니다.sudo tunctl -t tap0 sudo ifconfig tap0 up
tap
인터페이스를 비공개 브리지에 결합합니다.sudo brctl addif virbr0 tap0
다음 명령어를 실행하여 브리지 네트워크의 설정을 확인합니다.
sudo brctl show
다음과 비슷한 출력이 표시되는지 확인합니다.
bridge name bridge id STP enabled interfaces virbr0 8000.5254008ca6a1 yes tap0 virbr0-nic
L2 VM에 사용할 QEMU 호환 OS 이미지를 다운로드합니다.
screen
을 실행하고 환영 메시지가 표시되면 Enter 키를 누릅니다.screen
중첩된 VM을 시작하려면 다음 명령어를 사용합니다. 메시지가 표시되면
user: root
,password: root
로 로그인합니다.sudo qemu-system-x86_64 -enable-kvm -hda IMAGE_NAME -m 512 -net nic -net tap,ifname=tap0,script=no -curses
IMAGE_NAME
을 L2 VM에 사용할 QEMU 호환 OS 이미지의 이름으로 바꿉니다.L2 VM에서
ip addr
를 실행하여 L2 VM 주소가 virbr0 공간에 있는지 확인합니다(예:192.168.122.89
).user@nested-vm:~$ ip addr
포트
8000
에서 자리표시자 웹 서버를 시작합니다.user@nested-vm:~$ python -m http.server
Ctrl+A
,Ctrl+D
를 사용하여screen
세션에서 분리합니다.다음 IP 주소를 L2 VM의 IP 주소로 바꿔 L1 VM이 L2 VM을 핑할 수 있는지 테스트합니다.
curl 192.168.122.89:8000
L2 VM의 응답이 다음과 유사한지 확인합니다.
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 3.2 Final//EN"><html> <title>Directory listing for /</title> <body> <h2>Directory listing for /</h2> <hr> <ol> <li><a href=".aptitude/">.aptitude/</a> <li><a href=".bashrc">.bashrc</a> <li><a href=".profile">.profile</a> </ol> <hr> </body> </html>
L1 VM에서
iptables
를 설정하여 L1 VM에서 L2 VM으로의 전달을 허용합니다. 이 안내에 사용된 L2 OS 이미지의 경우 IP 테이블을 플러시해야 합니다.sudo iptables -F
L1 VM의 별칭 IP를 확인합니다.
ip route show table local
출력이 다음과 비슷하게 표시되는지 확인합니다. 이 예시의 경우 L2 VM의
eth0
이더넷 기기와 연결된 IP 주소가 2개 있습니다. 첫 번째 IP 주소인10.128.0.2
는sudo ifconfig -a
에서 반환하는 L2 VM의 기본 IP 주소입니다. 두 번째 IP 주소인10.128.0.13
은 L2 VM의 별칭 IP 주소입니다.local 10.128.0.2 dev eth0 proto kernel scope host src 10.128.0.2 broadcast 10.128.0.2 dev eth0 proto kernel scope link src 10.128.0.2 local 10.128.0.13/30 dev eth0 proto 66 scope host broadcast 127.0.0.0 dev lo proto kernel scope link src 127.0.0.1 local 127.0.0.0/8 dev lo proto kernel scope host src 127.0.0.1 local 127.0.0.1 dev lo proto kernel scope host src 127.0.0.1 broadcast 127.255.255.255 dev lo proto kernel scope link src 127.0.0.1 broadcast 192.168.122.0 dev virbr0 proto kernel scope link src 192.168.122.1 linkdown local 192.168.122.1 dev virbr0 proto kernel scope host src 192.168.122.1 broadcast 192.168.122.255 dev virbr0 proto kernel scope link src 192.168.122.1 linkdown
다음 명령어를 실행하여 트래픽을
10.128.0.13
예시 별칭 IP에서 L2 VM의192.168.122.89
예시 IP로 전달합니다.echo 1 | sudo tee /proc/sys/net/ipv4/ip_forward sudo iptables -t nat -A PREROUTING -d 10.128.0.13 -j DNAT --to-destination 192.168.122.89 sudo iptables -t nat -A POSTROUTING -s 192.168.122.89 -j MASQUERADE sudo iptables -A INPUT -p udp -j ACCEPT sudo iptables -A FORWARD -p tcp -j ACCEPT sudo iptables -A OUTPUT -p tcp -j ACCEPT sudo iptables -A OUTPUT -p udp -j ACCEPT
iptables
문제 해결 방법은 트래픽을 전달하지 않는iptables
를 참조하세요.L1 VM과 동일한 네트워크에 있는 다른 VM에 로그인하고 IP 주소를 아래의 L2 VM의 별칭 IP로 바꿔 별칭 IP에 대한
curl
요청을 수행하여 L1 VM 외부에서 L2 VM 액세스를 확인합니다.user@another-vm:~$ curl 10.128.0.13:8000
curl
응답이 다음과 비슷하게 표시되는지 확인합니다.<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 3.2 Final//EN"><html> <title>Directory listing for /</title> <body> <h2>Directory listing for /</h2> <hr> <ol> <li><a href=".aptitude/">.aptitude/</a> <li><a href=".bashrc">.bashrc</a> <li><a href=".profile">.profile</a> </ol> <hr> </body> </html>
REST
로컬 개발 환경에서 이 페이지의 REST API 샘플을 사용하려면 gcloud CLI에 제공하는 사용자 인증 정보를 사용합니다.
Install the Google Cloud CLI, then initialize it by running the following command:
gcloud init
자세한 내용은 Google Cloud 인증 문서의 REST 사용 인증을 참조하세요.
외부 네트워크 액세스로 L2 VM 만들기
다음 절차를 수행하여 외부 네트워크 액세스 권한이 있는 L2 VM을 만듭니다. 이 절차에서는
qemu-system-x86_64
를 사용하여 L2 VM을 시작합니다. 다른 절차를 사용하여 L2 VM을 만드는 데 문제가 있는 경우 지원팀에 문의하기 전에 이 절차를 수행하여 문제를 재현합니다.L1 VM에 대한 비공개 네트워크 브리지가 있는 L2 VM 만들기
다음 절차를 수행하여 이전에 만든 L1 VM에 대한 비공개 네트워크 브리지가 있는 L2 VM을 만듭니다. VPC 네트워크의 기본 최대 전송 단위(MTU)를 변경하는 방법은 최대 전송 단위 개요를 참조하세요.
L1 VM 외부에서 네트워크 액세스로 L2 VM 만들기
L1 VM 외부에 있는 VM이 L2 VM에 액세스할 수 있도록 별칭 IP로 L2 VM을 설정할 수 있습니다. 다음 절차를 수행하여 이전에 만든 L1 VM 외부에서 별칭 IP를 통해 네트워크 액세스로 L2 VM을 만듭니다. 별칭 IP 주소를 만드는 방법은 별칭 IP 범위 구성을 참조하세요.
다음 절차에서는
subnet1
이라는 이전에 만든 서브넷을 가정합니다. 이미 다른 이름의 서브넷이 있으면subnet1
을 서브넷 이름으로 바꾸거나subnet1
이라는 새 서브넷을 만듭니다.다음 단계
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2024-11-25(UTC)
-