Compute Engine은 항상 암호화되는, 가상 머신(VM) 인스턴스를 위한 로컬 솔리드 스테이트 드라이브(SSD) 블록 스토리지를 제공합니다. 각 로컬 SSD의 크기는 375GB이지만 인스턴스당 9TB에 최대 24개의 로컬 SSD 파티션을 연결할 수 있습니다. 원하는 경우 여러 로컬 SSD 파티션을 포맷하고 단일 논리 볼륨에 마운트할 수 있습니다.
Persistent Disk와 달리 로컬 SSD는 VM 인스턴스를 호스팅하는 서버에 물리적으로 연결됩니다. 이렇듯 긴밀히 결합되어 성능이 탁월하므로 영구 디스크와 비교할 때 초당 입출력 작업 수(IOPS)가 매우 높고 지연 시간이 매우 짧습니다. 자세한 내용은 블록 스토리지 성능을 참조하세요.
로컬 SSD는 캐시, 처리 공간, 가치가 낮은 데이터 등을 임시로 저장할 때만 사용해야 합니다. 임시 데이터가 아닌 데이터를 저장하려면 내구성을 갖춘 스토리지 옵션 중 하나를 사용합니다.
로컬 SSD를 사용하는 인스턴스는 중지했다가 다시 시작할 수 없습니다. 게스트 운영체제를 통해 로컬 SSD가 있는 인스턴스를 종료하면 해당 인스턴스를 다시 시작할 수 없으며 로컬 SSD의 데이터가 손실됩니다.
로컬 SSD가 중복 또는 유연성 요구사항을 충족하지 않으면 다른 스토리지 옵션과 함께 로컬 SSD를 사용할 수 있습니다.
시작하기 전에
- 이 가이드의 명령줄 예시를 사용하려면 우선 다음 작업을 수행해야 합니다.
- gcloud 명령줄 도구를 최신 버전으로 설치하거나 업데이트합니다.
- 기본 리전 및 영역을 설정합니다.
- 이 가이드의 API 예시를 사용하려면 API 액세스를 설정합니다.
- 로컬 SSD를 사용하기 전에 로컬 SSD 제한사항을 검토합니다.
- Persistent Disk와 로컬 SSD의 차이점을 알아봅니다.
- GPU가 연결된 VM에 로컬 SSD를 추가하는 경우 GPU 리전 및 영역별 로컬 SSD 가용성을 참조하세요.
최대 용량 9TB
다음과 같이 인스턴스를 만들 수 있습니다.
- 6TB의 로컬 SSD 공간과 160만 읽기 IOPS 성능을 위한 로컬 SSD 파티션 16개
- 9TB의 로컬 SSD 공간과 240만 읽기 IOPS 성능을 위한 로컬 SSD 파티션 24개
N1, N2, N2D 및 커스텀 머신 유형의 인스턴스에서 사용할 수 있습니다. N1 머신에서 최대 성능을 얻으려면 vCPU가 32개 이상인 머신 유형을 선택합니다. N2 및 N2D 머신에서 최대 성능을 얻으려면 vCPU가 24개 이상인 머신 유형을 선택합니다.
로컬 SSD 디스크를 읽고 쓰려면 가상 머신의 CPU 사이클이 필요합니다. 높고 일관된 IOPS 수준을 달성하려면 입력과 출력 작업을 처리할 수 있는 사용 가능한 CPU가 있어야 합니다. 자세한 내용은 블록 스토리지 성능을 참조하세요.
로컬 SSD 데이터 지속성
로컬 SSD를 사용해 인스턴스를 만들기 전에 로컬 SSD 데이터가 보존되는 이벤트와 로컬 SSD 데이터를 복구할 수 없는 이벤트에 대해 알아야 합니다.
로컬 SSD의 데이터가 지속되는 이벤트는 다음과 같습니다.
- 게스트 운영체제를 재부팅하는 경우
- 라이브 마이그레이션을 할 수 있도록 구성한 인스턴스가 호스트 유지보수 이벤트를 거치는 경우
- 호스트 시스템에서 호스트 오류가 발생하면 Compute Engine은 VM에 다시 연결하여 로컬 SSD 데이터를 보존하려 하지만 성공하지 못할 수도 있습니다. 이러한 시도가 성공하면 VM이 자동으로 다시 시작합니다. 그러나 다시 연결 시도가 실패하면 데이터 없이 VM이 다시 시작합니다. 호스트 오류 발생 시 VM 인스턴스가 작동하는 방식을 구성하려면 인스턴스 가용성 정책 설정을 참조하세요.
로컬 SSD의 데이터가 지속되지 않는 이벤트는 다음과 같습니다.
- 인스턴스를 수동으로 중지하는 경우
- 게스트 운영체제를 종료하고 인스턴스를 강제로 중지하는 경우
- 선점형으로 구성한 인스턴스가 선점형 프로세스를 거치는 경우
- 호스트 유지보수 이벤트를 중지하도록 구성한 인스턴스가 호스트 유지보수 이벤트를 거치는 경우
- 호스트 시스템에 호스트 오류가 발생했는데 기본 드라이브가 60분 내로 복구되지 않는 경우 Compute Engine에서 로컬 SSD의 데이터를 보존하려고 시도하지 않습니다.
- 로컬 SSD를 잘못 구성하여 연결할 수 없는 경우
- 프로젝트 결제가 사용 중지된 경우. 인스턴스가 중지되고 데이터가 손실됩니다.
로컬 SSD를 사용하여 인스턴스 만들기
로컬 SSD는 가상 머신 인스턴스가 실행되는 실제 머신에 위치하므로 인스턴스 생성 프로세스 중에만 생성될 수 있습니다. 로컬 SSD를 부팅 기기로 사용할 수 없습니다.
로컬 SSD를 만든 후 사용하기 전에 기기를 포맷 및 마운트해야 합니다.
Google Cloud Console, gcloud
도구, Compute Engine API를 사용해 로컬 SSD로 인스턴스를 만들 수 있습니다.
Console
- Cloud Console에서 VM 인스턴스 페이지로 이동합니다.
- 인스턴스 만들기를 클릭합니다.
- 새 인스턴스 만들기 페이지에서 인스턴스의 속성을 입력합니다.
- 관리, 보안, 디스크, 네트워킹, 단독 테넌시를 클릭합니다.
- 디스크를 클릭하고 추가 디스크에서 새 디스크 추가를 클릭합니다.
- 이름 필드에 새 디스크 이름을 입력합니다.
- 유형에서 로컬 SSD 스크래치 디스크(최대 24개)를 선택합니다.
- 완료를 클릭합니다.
- 만들기를 클릭하여 인스턴스를 만듭니다.
- After creating a local SSD, you must format and mount the device before you can use it.
gcloud
연결된 로컬 SSD를 사용하여 VM 인스턴스를 만들려면 안내를 따라 --local-ssd
플래그를 사용하여 로컬 SSD 파티션을 만들고 연결하여 인스턴스를 만듭니다. 로컬 SSD 파티션을 여러 개 만들려면 --local-ssd
플래그를 더 추가합니다.
원하는 경우 --local-ssd
플래그마다 인터페이스 값과 기기 이름을 설정할 수도 있습니다.
마찬가지로 다음과 같이 각각 SCSI 인터페이스를 사용하는 두 로컬 SSD가 포함된 하나의 인스턴스를 만들 수 있습니다.
gcloud compute instances create example-instance \
--machine-type n2-standard-8 \
--local-ssd interface=[INTERFACE_TYPE] \
--local-ssd interface=[INTERFACE_TYPE] \
--image-project [IMAGE_PROJECT] \
--image-family [IMAGE_FAMILY]
각 항목의 의미는 다음과 같습니다.
[INTERFACE_TYPE]
은 이 기기에 사용할 로컬 SSD 인터페이스입니다. 부팅 디스크 이미지에 최적화된 NVMe 드라이버가 있는 경우nvme
를 지정하고 그 외의 이미지에는scsi
를 지정합니다.[INSTANCE_NAME]
은 새 인스턴스의 이름입니다.[IMAGE_FAMILY]
는 사용 가능한 이미지 계열 중 하나입니다.[IMAGE_PROJECT]
는 이미지 계열이 속한 이미지 프로젝트입니다.
필요한 경우 서로 다른 파티션에 nvme
및 scsi
조합을 사용하여 로컬 SSD 파티션을 단일 인스턴스에 연결할 수 있습니다. nvme
기기 성능은 인스턴스의 부팅 디스크 이미지에 따라 달라집니다.
로컬 SSD를 만든 후 사용하기 전에 기기를 포맷 및 마운트해야 합니다.
API
가상 머신 인스턴스를 만들 때 API에서 initializeParams
속성을 사용하여 로컬 SSD 기기를 만들 수 있습니다. 다음 속성도 지정해야 합니다.
diskType
: 로컬 SSD로 설정autoDelete
: true로 설정type
:SCRATCH
로 설정
로컬 SSD 인스턴스에 설정할 수 없는 속성은 다음과 같습니다.
diskName
sourceImage
속성diskSizeGb
다음은 부팅 디스크 및 로컬 SSD 기기를 사용하는 인스턴스를 만드는 샘플 요청 페이로드입니다.
{
"machineType":"zones/us-central1-f/machineTypes/n2-standard-8",
"name":"local-ssd-instance",
"disks":[
{
"type":"PERSISTENT",
"initializeParams":{
"sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-1604-lts"
},
"boot":true
},
{
"type":"SCRATCH",
"initializeParams":{
"diskType":"zones/us-central1-f/diskTypes/local-ssd"
},
"autoDelete":true,
"interface": "NVME"
}
],
"networkInterfaces":[
{
"network":"global/networks/default"
}
]
}
로컬 SSD를 만든 후 사용하기 전에 기기를 포맷 및 마운트해야 합니다.
API에서 인스턴스를 만드는 방법은 Compute Engine API를 참조하세요.
NVMe 또는 SCSI 인터페이스 선택
NVMe 인터페이스 또는 SCSI 인터페이스를 사용해 로컬 SSD를 인스턴스에 연결할 수 있습니다. 대부분의 공개 이미지에는 NVMe 및 SCSI 드라이버가 포함되어 있습니다. 하지만 인스턴스가 NVMe에서 최고의 성능을 얻거나 멀티 큐 SCSI를 사용해 SCSI 인터페이스에서 최고의 성능을 얻을 수 있도록 최적화된 드라이버가 포함된 이미지도 있습니다.
- NVMe 최적화 공개 이미지
- Ubuntu 14.04 LTS 이미지
ubuntu-1404-trusty-v20170110
이상 또는 이미지 계열ubuntu-1404-lts
- Ubuntu 16.04 LTS 이미지
ubuntu-1604-xenial-v20170113
이상 또는 이미지 계열ubuntu-1604-lts
- Ubuntu 17.10 이미지 계열
ubuntu-1710
- Ubuntu 18.04 LTS 이미지 계열
ubuntu-1804-lts
- Ubuntu 14.04 LTS 이미지
- 멀티 큐 SCSI 지원 공개 이미지:
- Debian 9 Stretch 이미지 또는 이미지 계열
debian-9
. - Ubuntu 14.04 LTS 이미지
ubuntu-1404-trusty-v20170807
이상 또는 이미지 계열ubuntu-1404-lts
- Ubuntu 16.04 LTS 이미지
ubuntu-1604-xenial-v20170803
이상 또는 이미지 계열ubuntu-1604-lts
- Ubuntu 17.10 이미지 계열
ubuntu-1710
- Ubuntu 18.04 LTS 이미지 계열
ubuntu-1804-lts
- 모든 Windows Server 이미지
- 모든 SQL Server 이미지
- Debian 9 Stretch 이미지 또는 이미지 계열
원하는 경우 프로젝트로 가져오는 커스텀 이미지에 멀티 큐 SCSI를 사용 설정할 수 있습니다. 자세한 내용은 멀티 큐 SCSI 사용 설정을 참조하세요.
유효한 로컬 SSD 수 선택
단일 VM 인스턴스에 여러 개의 로컬 SSD를 연결하는 경우 VM 인스턴스의 머신 유형에 따라 연결할 수 있는 유효한 로컬 SSD 수에 제한이 있습니다. VM의 머신 유형에 따라 단일 VM에 1~8, 16, 24개의 로컬 SSD를 연결할 수 있습니다. 자세한 내용은 로컬 SSD 및 머신 유형 제한사항을 참조하세요.
로컬 SSD 기기 포맷 및 마운트
개별 로컬 SSD 파티션 포맷 및 마운트
로컬 SSD를 인스턴스에 연결하는 가장 쉬운 방법은 각 기기를 단일 파티션으로 포맷하고 마운트하는 것입니다. 또는 여러 파티션을 단일 논리 볼륨으로 결합할 수 있습니다.
Linux 인스턴스
Linux 인스턴스에서 새 로컬 SSD를 포맷하고 마운트하세요. 필요한 모든 파티션 형식 및 구성을 사용할 수 있습니다. 이 예시에서는 단일 ext4
파티션을 만듭니다.
VM 인스턴스 페이지로 이동합니다.
새 로컬 SSD가 연결된 인스턴스 옆에 있는 SSH 버튼을 클릭합니다. 브라우저에서 해당 인스턴스에 대한 터미널 연결이 열립니다.
터미널에서
lsblk
명령어를 사용하여 마운트할 로컬 SSD를 식별합니다.$ lsblk
SCSI 모드의 로컬 SSD에는
sdb
와 같은 표준 이름이 사용되며 NVMe 모드의 로컬 SSD는 다음 출력의 NAME 열에 나온 것처럼nvme0n1
과 같은 이름을 갖습니다.NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 10G 0 disk └─sda1 8:1 0 10G 0 part / nvme0n1 259:0 0 375G 0 disk
ext4 파일 시스템으로 로컬 SSD를 포맷합니다. 이 명령어는 로컬 SSD에서 기존 데이터를 모두 삭제합니다.
$ sudo mkfs.ext4 -F /dev/[SSD_NAME]
[SSD_NAME]
을 포맷할 로컬 SSD의 ID로 바꿉니다. 예를 들어 인스턴스의 첫 번째 NVMe 로컬 SSD를 포맷하려면nvme0n1
을 지정합니다.mkdir
명령어를 사용하여 기기를 마운트할 수 있는 디렉터리를 만듭니다.$ sudo mkdir -p /mnt/disks/[MNT_DIR]
여기서
[MNT_DIR]
은 로컬 SSD를 마운트할 디렉터리입니다.인스턴스에 로컬 SSD를 마운트합니다. 원하는 경우 쓰기 캐시 소거를 중지하여 쓰기 성능을 개선할 수 있지만 최대 2초 동안 캐시 처리된 데이터 쓰기의 내구성이 저하될 수 있습니다.
$ sudo mount /dev/[SSD_NAME] /mnt/disks/[MNT_DIR]
각 항목의 의미는 다음과 같습니다.
[SSD_NAME]
는 마운트할 로컬 SSD의 ID입니다.[MNT_DIR]
은 로컬 SSD를 마운트할 디렉터리입니다.
기기의 읽기 및 쓰기 액세스 권한을 구성합니다. 이 예시에서는 모든 사용자에게 기기에 대한 쓰기 액세스 권한을 부여합니다.
$ sudo chmod a+w /mnt/disks/[MNT_DIR]
여기서
[MNT_DIR]
은 로컬 SSD를 마운트한 디렉터리입니다.
원하는 경우 인스턴스가 다시 시작될 때 기기가 자동으로 다시 마운트되도록 로컬 SSD를 /etc/fstab
파일에 추가할 수 있습니다. 이 항목은 인스턴스가 중지되는 경우 로컬 SSD의 데이터를 보존하지 않습니다. 로컬 SSD 데이터 지속성에 대한 자세한 내용은 로컬 SSD 데이터 지속성을 참조하세요.
항목 /etc/fstab
파일을 지정할 때는 로컬 SSD가 없더라도 인스턴스가 계속 부팅할 수 있도록 nofail
옵션을 포함해야 합니다. 예를 들어 부팅 디스크의 스냅샷을 만들고 로컬 SSD가 연결되지 않은 상태에서 새 인스턴스를 만들 경우 인스턴스가 시작 프로세스를 계속 수행할 수 있으며 무기한 중지되지 않습니다.
/etc/fstab
항목을 만듭니다.blkid
명령어를 사용하여 기기의 파일 시스템에 해당하는 UUID를 찾고 이 UUID가 마운트 옵션에 포함되도록/etc/fstab
파일을 수정합니다. 명령어 하나로 이 단계를 완료할 수 있습니다. 예를 들면 다음과 같습니다.$ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
여기서
[MNT_DIR]
은 로컬 SSD를 마운트한 디렉터리입니다.cat
명령어를 사용하여/etc/fstab
항목이 올바른지 확인합니다.$ cat /etc/fstab
이 인스턴스의 부팅 디스크에서 스냅샷을 만들고 사용하여 로컬 SSD가 없는 별도의 인스턴스를 만들 경우, /etc/fstab
파일을 수정하고 이 로컬 SSD의 항목을 삭제합니다. nofail
옵션이 있더라도 /etc/fstab
파일을 인스턴스에 연결된 파티션과 동기화된 상태로 유지하고 부팅 디스크의 스냅샷을 만들기 전에 이러한 항목을 삭제합니다.
Windows 인스턴스
Windows 디스크 관리 도구를 사용해 Windows 인스턴스에서 로컬 SSD를 포맷하고 마운트합니다.
RDP를 통해 인스턴스에 연결합니다. 이 예시에서는 VM 인스턴스 페이지로 이동하여 로컬 SSD가 연결된 인스턴스 옆에 있는 RDP 버튼을 클릭합니다. 사용자 이름과 비밀번호를 입력하면 서버의 데스크톱 인터페이스가 포함된 창이 열립니다.
Windows 시작 버튼을 마우스 오른쪽 버튼으로 클릭하고 디스크 관리를 선택합니다.
로컬 SSD를 아직 초기화하지 않았으면 새 파티션에 파티션 나누기 스키마를 선택하라는 메시지가 도구에 표시됩니다. GPT를 선택하고 확인을 클릭합니다.
로컬 SSD가 초기화된 후 할당되지 않은 디스크 공간을 마우스 오른쪽 버튼으로 클릭하고 새 단순 볼륨을 선택합니다.
단순 볼륨 만들기 마법사의 안내에 따라 새 볼륨을 구성합니다. 파티션 형식은 원하는 것을 사용하면 되지만 이 예시에서는
NTFS
를 선택합니다. 또한 빠른 포맷 실행을 선택해 포맷 프로세스 속도를 높입니다.마법사를 완료하고 볼륨 포맷을 마친 후에 새 로컬 SSD가
Healthy
상태인지 확인합니다.
작업이 끝났습니다. 이제 로컬 SSD에 파일을 쓸 수 있습니다.
로컬 SSD 파티션 여러 개를 포맷하고 단일 논리 볼륨에 마운트
영구 SSD와 달리 로컬 SSD는 인스턴스에 연결하는 기기마다 용량이 375GB로 고정되어 있습니다. 로컬 SSD 파티션 여러 개를 단일 논리 볼륨에 결합하려면 이러한 파티션에 볼륨 관리를 직접 정의해야 합니다.
Linux 인스턴스
mdadm
을 사용하여 RAID 0 배열을 만듭니다. 이 예시에서는 단일 ext4
파일 시스템으로 배열을 포맷하지만 원하는 파일 시스템을 적용할 수 있습니다.
VM 인스턴스 페이지로 이동합니다.
새 로컬 SSD가 연결된 인스턴스 옆에 있는 SSH 버튼을 클릭합니다. 브라우저에서 해당 인스턴스에 대한 터미널 연결이 열립니다.
터미널에서
mdadm
도구를 설치합니다.mdadm
의 설치 프로세스에는 스크립트를 중단하는 사용자 프롬프트가 포함되어 있으므로 이 프로세스를 수동으로 실행합니다.Debian 및 Ubuntu:
$ sudo apt update && sudo apt install mdadm --no-install-recommends
CentOS 및 RHEL:
$ sudo yum install mdadm -y
SLES 및 openSUSE:
$ sudo zypper install -y mdadm
lsblk
명령어를 사용하여 함께 마운트할 모든 로컬 SSD를 식별합니다. 이 예시에서는 인스턴스에 NVMe 모드의 로컬 SSD 파티션이 8개 있습니다.$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 10G 0 disk └─sda1 8:1 0 10G 0 part / nvme0n1 259:0 0 375G 0 disk nvme0n2 259:1 0 375G 0 disk nvme0n3 259:2 0 375G 0 disk nvme0n4 259:3 0 375G 0 disk nvme0n5 259:4 0 375G 0 disk nvme0n6 259:5 0 375G 0 disk nvme0n7 259:6 0 375G 0 disk nvme0n8 259:7 0 375G 0 disk
SCSI 모드의 로컬 SSD에는
sdb
와 같은 표준 이름이 사용되며 NVMe 모드의 로컬 SSD에는nvme0n1
과 같은 이름이 사용됩니다.mdadm
을 사용하여 여러 로컬 SSD 기기를/dev/md0
이라는 이름의 단일 배열로 결합합니다. 이 예시에서는 NVMe 모드의 로컬 SSD 기기 8개를 병합합니다. SCSI 모드의 로컬 SSD 기기인 경우lsblk
명령어로 얻은 이름을 지정합니다.$ sudo mdadm --create /dev/md0 --level=0 --raid-devices=8 \ /dev/nvme0n1 /dev/nvme0n2 /dev/nvme0n3 /dev/nvme0n4 \ /dev/nvme0n5 /dev/nvme0n6 /dev/nvme0n7 /dev/nvme0n8 mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started.
ext4 파일 시스템으로 전체
/dev/md0
배열을 포맷합니다. 이 명령어는 로컬 SSD에서 기존 데이터를 모두 삭제합니다.$ sudo mkfs.ext4 -F /dev/md0
/dev/md0
을 마운트할 수 있는 디렉터리를 만듭니다. 이 예시에서는/mnt/disks/ssd-array
디렉터리를 만듭니다.$ sudo mkdir -p /mnt/disks/[MNT_DIR]
여기서
[MNT_DIR]
는 로컬 SSD 배열을 마운트할 디렉터리입니다./dev/md0
배열을/mnt/disks/ssd-array
디렉터리에 마운트합니다. 원하는 경우 쓰기 캐시 소거를 중지하여 쓰기 성능을 개선할 수 있지만 최대 2초 동안 캐시 처리된 데이터 쓰기의 내구성이 저하될 수 있습니다.$ sudo mount /dev/md0 /mnt/disks/[MNT_DIR]
여기서
[MNT_DIR]
는 로컬 SSD 배열을 마운트할 디렉터리입니다.기기의 읽기 및 쓰기 액세스 권한을 구성합니다. 이 예시에서는 모든 사용자에게 기기에 대한 쓰기 액세스 권한을 부여합니다.
$ sudo chmod a+w /mnt/disks/[MNT_DIR]
여기서
[MNT_DIR]
는 로컬 SSD 배열을 마운트한 디렉터리입니다.
원하는 경우 인스턴스가 다시 시작될 때 기기가 자동으로 다시 마운트되도록 로컬 SSD를 /etc/fstab
파일에 추가할 수 있습니다. 이 항목은 인스턴스가 중지되는 경우 로컬 SSD의 데이터를 보존하지 않습니다.
로컬 SSD 데이터 지속성에 대한 자세한 내용은 로컬 SSD 데이터 지속성을 참조하세요.
항목 /etc/fstab
파일을 지정할 때는 로컬 SSD가 없더라도 인스턴스가 계속 부팅할 수 있도록 nofail
옵션을 포함해야 합니다. 예를 들어 부팅 디스크의 스냅샷을 만들고 로컬 SSD가 연결되지 않은 상태에서 새 인스턴스를 만들 경우 인스턴스가 시작 프로세스를 계속 수행할 수 있으며 무기한 중지되지 않습니다.
/etc/fstab
항목을 만듭니다.blkid
명령어를 사용하여 기기의 파일 시스템에 해당하는 UUID를 찾고 이 UUID가 마운트 옵션에 포함되도록/etc/fstab
파일을 수정합니다. 로컬 SSD를 사용할 수 없는 경우에도 시스템이 부팅되도록nofail
옵션을 지정합니다. 이 단계는 단일 명령어로 완료할 수 있습니다. 예를 들면 다음과 같습니다.$ echo UUID=`sudo blkid -s UUID -o value /dev/md0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
여기서
[MNT_DIR]
는 로컬 SSD 배열을 마운트한 디렉터리입니다.cat
명령어를 사용하여/etc/fstab
항목이 올바른지 확인합니다.$ cat /etc/fstab
이 인스턴스의 부팅 디스크에서 스냅샷을 만들고 사용하여 로컬 SSD가 없는 별도의 인스턴스를 만들 경우, /etc/fstab
파일을 수정하고 이 로컬 SSD 배열의 항목을 삭제합니다. nofail
옵션이 있더라도 /etc/fstab
파일을 인스턴스에 연결된 파티션과 동기화된 상태로 유지하고 부팅 디스크의 스냅샷을 만들기 전에 이러한 항목을 삭제합니다.
Windows 인스턴스
Windows 디스크 관리 도구를 사용해 Windows 인스턴스에서 로컬 SSD 배열을 포맷하고 마운트합니다.
RDP를 통해 인스턴스에 연결합니다. 이 예시에서는 VM 인스턴스 페이지로 이동하여 로컬 SSD가 연결된 인스턴스 옆에 있는 RDP 버튼을 클릭합니다. 사용자 이름과 비밀번호를 입력하면 서버의 데스크톱 인터페이스가 포함된 창이 열립니다.
Windows 시작 버튼을 마우스 오른쪽 버튼으로 클릭하고 디스크 관리를 선택합니다.
로컬 SSD를 아직 초기화하지 않았으면 새 파티션의 파티션 나누기 스키마를 선택하라는 메시지가 표시됩니다. GPT를 선택하고 확인을 클릭합니다.
로컬 SSD가 초기화된 후 할당되지 않은 디스크 공간을 마우스 오른쪽 버튼으로 클릭하고 새 스트라이프 볼륨을 선택합니다.
스트라이프 배열에 포함할 로컬 SSD 파티션을 선택합니다. 이 예시에서는 모든 파티션을 선택하여 단일 로컬 SSD 기기로 결합합니다.
새 스트라이프 볼륨 마법사의 안내에 따라 새 볼륨을 구성합니다. 파티션 형식은 원하는 것을 사용하면 되지만 이 예시에서는
NTFS
를 선택합니다. 또한 빠른 포맷 실행을 선택해 포맷 프로세스 속도를 높입니다.마법사를 완료하고 볼륨 포맷을 마친 후에 새 로컬 SSD가
Healthy
상태인지 확인합니다.
이제 로컬 SSD에 파일을 쓸 수 있습니다.
성능
로컬 SSD 성능은 선택한 인터페이스에 따라 크게 달라집니다. SCSI 및 NVMe 인터페이스를 통해 로컬 SSD를 사용할 수 있습니다. NVMe를 사용하도록 선택한 경우 최고의 성능을 얻으려면 특수한 NVMe 지원 이미지를 사용해야 합니다. 자세한 내용은 NVMe 또는 SCSI 인터페이스 선택을 참조하세요.
N1 머신 유형으로 최대 성능 한도에 도달하려면 vCPU를 32개 이상 사용합니다. N2 또는 N2D 머신 유형의 최대 성능 한도에 도달하려면 vCPU를 24개 이상 사용합니다.
NVMe
저장공간(GB) | 파티션 | IOPS | 처리량 (MB/s) |
||||
---|---|---|---|---|---|---|---|
읽기 | 쓰기 | 읽기 | 쓰기 | ||||
375 | 1 | 170,000 | 90,000 | 660 | 350 | ||
750 | 2 | 340,000 | 180,000 | 1,320 | 700 | ||
1,125 | 3 | 510,000 | 270,000 | 1,980 | 1,050 | ||
1,500 | 4 | 680,000 | 360,000 | 2,650 | 1,400 | ||
1,875 | 5 | 680,000 | 360,000 | 2,650 | 1,400 | ||
2,250 | 6 | 680,000 | 360,000 | 2,650 | 1,400 | ||
2,625 | 7 | 680,000 | 360,000 | 2,650 | 1,400 | ||
3,000 | 8 | 680,000 | 360,000 | 2,650 | 1,400 | ||
6,000 | 16 | 1,600,000 | 800,000 | 6,240 | 3,120 | ||
9,000 | 24 | 2,400,000 | 1,200,000 | 9,360 | 4,680 |
SCSI
저장공간(GB) | 파티션 | IOPS | 처리량 (MB/s) |
||||
---|---|---|---|---|---|---|---|
읽기 | 쓰기 | 읽기 | 쓰기 | ||||
375 | 1 | 100,000 | 70,000 | 390 | 270 | ||
750 | 2 | 200,000 | 140,000 | 780 | 550 | ||
1,125 | 3 | 300,000 | 210,000 | 1,170 | 820 | ||
1,500 | 4 | 400,000 | 280,000 | 1,560 | 1,090 | ||
1,875 | 5 | 400,000 | 280,000 | 1,560 | 1,090 | ||
2,250 | 6 | 400,000 | 280,000 | 1,560 | 1,090 | ||
2,625 | 7 | 400,000 | 280,000 | 1,560 | 1,090 | ||
3,000 | 8 | 400,000 | 280,000 | 1,560 | 1,090 | ||
6,000 | 16 | 900,000 | 800,000 | 6,240 | 3,120 | ||
9,000 | 24 | 900,000 | 800,000 | 9,360 | 4,680 |