Vertex AI Workbench 인스턴스 소개
Vertex AI Workbench 인스턴스는 전체 데이터 과학 워크플로를 위한 Jupyter 노트북 기반의 개발 환경입니다. Vertex AI Workbench 인스턴스의 Jupyter 노트북 내에서 Vertex AI 및 기타 Google Cloud 서비스와 상호작용할 수 있습니다.
Vertex AI Workbench 통합 및 기능을 통해 데이터에 더 쉽게 액세스하고 데이터를 더 빠르게 처리하고 노트북 실행 일정을 예약할 수 있습니다.
Vertex AI Workbench 인스턴스는 JupyterLab과 함께 사전 패키징되어 있으며 TensorFlow 및 PyTorch 프레임워크 지원 기능이 포함된 딥 러닝 패키지 제품군이 사전 설치되어 있습니다. CPU 전용이나 GPU 지원 인스턴스를 구성할 수 있습니다.
Vertex AI Workbench 인스턴스는 GitHub 저장소와의 동기화 기능을 지원합니다. Vertex AI Workbench 인스턴스는 Google Cloud 인증 및 승인을 통해 보호됩니다.
데이터 액세스
JupyterLab 사용자 인터페이스를 벗어나지 않고도 데이터에 액세스할 수 있습니다.
Vertex AI Workbench 인스턴스의 JupyterLab 탐색 메뉴에서는 Cloud Storage 통합을 사용하여 액세스 권한이 있는 데이터 및 기타 파일을 찾아볼 수 있습니다. JupyterLab 내에서 Cloud Storage 버킷 및 파일에 액세스를 참조하세요.
BigQuery 통합을 사용하여 액세스할 수 있는 테이블을 찾아보고 쿼리를 작성하고 결과를 미리 보고 노트북에 데이터를 로드할 수도 있습니다. JupyterLab 내에서 BigQuery 테이블의 통합 쿼리를 참조하세요.
노트북 실행
실행자를 사용하여 노트북 파일을 일회성 실행 또는 일정에 따라 실행합니다. 실행할 특정 환경과 하드웨어를 선택합니다. 노트북 코드가 Vertex AI 커스텀 학습에서 실행되므로 더 쉽게 분산 학습을 수행하고 초매개변수를 최적화하거나 지속적 학습 작업을 예약할 수 있습니다.
실행에 매개변수를 사용하여 각 실행 작업에 특정 변경사항을 적용할 수 있습니다. 예를 들어 사용할 다른 데이터 세트를 지정하거나, 모델의 학습률을 변경하거나, 모델 버전을 변경할 수 있습니다.
반복 일정으로 실행되도록 노트북을 설정할 수도 있습니다. 인스턴스가 종료된 경우에도 Vertex AI Workbench는 노트북 파일을 실행하고 결과를 저장하여 다른 사용자와 보고 공유할 수 있습니다.
통계 공유
노트북 실행은 Cloud Storage 버킷에 저장되므로 결과에 대한 액세스 권한을 부여하여 다른 사람과 유용한 정보를 공유할 수 있습니다. 노트북 실행에 대한 이전 섹션을 참조하세요.
인스턴스 보호
기본 VPC 네트워크 및 서브넷을 사용하는 기본 Google 관리 네트워크에 Vertex AI Workbench 인스턴스를 배포할 수 있습니다. 기본 네트워크 대신 인스턴스에 사용할 VPC 네트워크를 지정할 수 있습니다.
기본적으로 Google Cloud는 Google에서 관리하는 암호화 키를 사용하여 자동으로 저장 데이터를 암호화합니다. 데이터를 보호하는 키와 관련된 특정 규정 준수 또는 규제 요구사항이 있으면 Vertex AI Workbench 인스턴스에 고객 관리 암호화 키(CMEK)를 사용할 수 있습니다. 자세한 내용은 고객 관리 암호화 키를 참조하세요.
유휴 인스턴스 자동 종료
비용 관리를 위해 Vertex AI Workbench 인스턴스는 기본적으로 일정 기간의 유휴 상태가 지난 다음에 종료됩니다. 시간을 변경하거나 이 기능을 사용 중지할 수 있습니다. 자세한 내용은 유휴 상태 종료를 참조하세요.
conda 환경 추가
Vertex AI Workbench 인스턴스는 conda 환경에 기반한 커널을 사용합니다. Vertex AI Workbench 인스턴스에 conda 환경을 추가할 수 있으며, 이 환경은 인스턴스의 JupyterLab 인터페이스에 커널로 표시됩니다.
conda 환경을 추가하면 기본 Vertex AI Workbench 인스턴스에서 제공하지 않는 커널을 사용할 수 있습니다. 예를 들어 R 및 Apache Beam용 conda 환경을 추가할 수 있습니다. 또는 TensorFlow, PyTorch, Python 등 사용 가능한 프레임워크의 특정 이전 버전용 conda 환경을 추가할 수 있습니다.
자세한 내용은 conda 환경 추가를 참조하세요.
커스텀 컨테이너
커스텀 컨테이너를 기반으로 Vertex AI Workbench 인스턴스를 만들 수 있습니다. Google에서 제공하는 기본 컨테이너 이미지로 시작하여 필요에 맞게 수정합니다. 그런 다음 커스텀 컨테이너를 기반으로 인스턴스를 만듭니다.
자세한 내용은 커스텀 컨테이너를 사용하여 인스턴스 만들기를 참조하세요.
Dataproc 통합
Dataproc 클러스터에서 노트북을 실행하여 데이터를 빠르게 처리할 수 있습니다. 클러스터가 설정되면 JupyterLab 사용자 인터페이스를 종료하지 않고도 클러스터에서 노트북 파일을 실행할 수 있습니다. 자세한 내용은 Dataproc이 사용 설정된 인스턴스 만들기를 참조하세요.
서드 파티 사용자 인증 정보로 인스턴스 만들기
직원 ID 제휴에서 제공하는 서드 파티 사용자 인증 정보를 사용하여 Vertex AI Workbench 인스턴스를 만들고 관리할 수 있습니다. 직원 ID 제휴는 외부 ID 공급업체(IdP)를 사용하여 사용자 그룹에 프록시를 통해 Vertex AI Workbench 인스턴스에 액세스할 수 있는 권한을 부여합니다.
Vertex AI Workbench 인스턴스에 대한 액세스 권한은 Vertex AI Workbench 인스턴스의 서비스 계정에 직원 풀 주 구성원을 할당하면 부여됩니다.
자세한 내용은 서드 파티 사용자 인증 정보로 인스턴스 만들기를 참조하세요.
제한사항
프로젝트를 계획할 때는 Vertex AI Workbench 인스턴스의 다음 제한사항을 고려하세요.
서드 파티 JupyterLab 확장 프로그램은 지원되지 않습니다.
Access Context Manager 및 Chrome Enterprise Premium 사용하여 컨텍스트 인식 액세스 제어로 Vertex AI Workbench 인스턴스를 보호하면 사용자가 인스턴스에 인증할 때마다 액세스가 평가됩니다. 예를 들어 사용자가 JupyterLab에 처음 액세스할 때 액세스가 평가되고 이후 웹브라우저의 쿠키가 만료된 경우 액세스할 때마다 액세스가 평가됩니다.
Google에서 제공하는 기본 컨테이너(
gcr.io/deeplearning-platform-release/workbench-container:latest
)에서 파생되지 않은 커스텀 컨테이너를 사용하면 Google 서비스와의 호환성 문제가 발생할 위험이 증가하므로 이는 지원되지 않습니다. 대신 기본 컨테이너를 수정하여 니즈에 맞는 커스텀 컨테이너를 만든 후 커스텀 컨테이너를 사용하여 인스턴스를 만듭니다.Vertex AI Workbench 인스턴스에서 커스텀 가상 머신(VM) 이미지난 커스텀 Deep Learning VM 이미지를 사용할 수 있지만 Vertex AI Workbench에서는 커스텀 이미지의 예기치 않은 동작이나 오작동에 대한 지원을 제공하지 않습니다.
사용자 관리형 노트북 이미지나 관리형 노트북 이미지를 사용하여 Vertex AI Workbench 인스턴스를 만들 수 없습니다.
Google Cloud 콘솔이나 Compute Engine API를 사용하여 Vertex AI Workbench 인스턴스의 기본 VM을 수정할 수 없습니다. Vertex AI Workbench 인스턴스의 기본 VM을 수정하려면 Notebooks API의
projects.locations.instances.patch
메서드 또는 Google Cloud SDK의gcloud workbench instances update
명령어를 사용합니다.VPC 서비스 제어를 사용하는 인스턴스에서는 executor를 사용할 수 없습니다.
Vertex AI Workbench 인스턴스의 네트워크 태그를 수정할 수 없습니다.
Vertex AI Workbench 인스턴스에서 가속기를 사용하려면 원하는 가속기 유형을 인스턴스 영역에서 사용할 수 있어야 합니다. 영역별 가속기 가용성에 대한 자세한 내용은 GPU 리전 및 영역 가용성을 참조하세요.