Dataproc이 사용 설정된 인스턴스 만들기
이 페이지에서는 Dataproc이 사용 설정된 Vertex AI Workbench 인스턴스를 만드는 방법을 설명합니다. 이 페이지에서는 Dataproc JupyterLab 플러그인의 이점과 Spark용 Dataproc Serverless 및 Compute Engine의 Dataproc을 사용하는 방법을 간략하게 설명합니다.
Dataproc JupyterLab 플러그인 개요
Vertex AI Workbench 인스턴스에는 Dataproc JupyterLab 플러그인이 사전 설치되어 있습니다(M113
이상 버전).
Dataproc JupyterLab 플러그인은 Dataproc 클러스터와 Dataproc의 Serverless Spark를 실행하여 Apache Spark 노트북 작업을 실행하는 두 가지 방법을 제공합니다.
- Dataproc 클러스터에는 Spark가 실행되는 인프라를 제어할 수 있는 다양한 기능이 포함되어 있습니다. Spark 클러스터의 크기와 구성을 선택하여 환경을 맞춤설정하고 제어할 수 있습니다. 이 접근 방식은 복잡한 워크로드, 장기 실행 작업, 세분화된 리소스 관리에 적합합니다.
- Dataproc 기반의 Serverless Spark가 인프라 문제를 해결해 줍니다. Spark 작업을 제출하면 Google이 백그라운드에서 리소스 프로비저닝, 확장, 최적화를 처리합니다. 이 서버리스 방식은 데이터 과학 및 ML 워크로드를 위한 쉽고 비용 효율적인 옵션을 제공합니다.
두 옵션 모두 데이터 처리 및 분석에 Spark를 사용할 수 있습니다. Dataproc 클러스터와 Serverless Spark 중에서 선택하는 방법은 특정 워크로드 요구사항, 원하는 제어 수준, 리소스 사용 패턴에 따라 달라집니다.
데이터 과학 및 ML 워크로드에 Serverless Spark를 사용할 때의 이점은 다음과 같습니다.
- 클러스터 관리 없음: Spark 클러스터 프로비저닝, 구성, 관리에 대해 걱정할 필요가 없습니다. 시간과 리소스가 절약됩니다.
- 자동 확장: Serverless Spark는 워크로드에 따라 자동으로 확장 및 축소되므로 사용하는 리소스에 대해서만 비용을 지불합니다.
- 고성능: Serverless Spark는 성능에 최적화되어 있으며 Google Cloud의 인프라를 활용합니다.
- 다른 Google Cloud 기술과의 통합: Serverless Spark는 BigQuery 및 Dataplex와 같은 다른 Google Cloud 제품과 통합됩니다.
자세한 내용은 Dataproc Serverless 문서를 참조하세요.
제한사항
프로젝트를 계획할 때 다음 제한사항을 고려하세요.
- Dataproc JupyterLab 플러그인은 VPC 서비스 제어를 지원하지 않습니다.
Dataproc 제한사항
다음 Dataproc 제한사항이 적용됩니다.
- Spark 작업은 제출하는 사용자 ID가 아닌 서비스 계정 ID로 실행됩니다.
시작하기 전에
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Enable the Cloud Resource Manager, Dataproc, and Notebooks APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Enable the Cloud Resource Manager, Dataproc, and Notebooks APIs.
필요한 역할
Dataproc 서버리스 클러스터나 Dataproc 클러스터에서 노트북 파일을 실행하는 데 필요한 권한이 서비스 계정에 있는지 확인하려면 관리자에게 서비스 계정에 다음 IAM 역할을 부여해 달라고 요청하세요.
-
프로젝트에 대한 Dataproc 작업자(
roles/dataproc.worker
) -
dataproc.clusters.use
권한용 클러스터에 대한 권한 편집자(roles/dataproc.editor
)
역할 부여에 대한 자세한 내용은 액세스 관리를 참조하세요.
이러한 사전 정의된 역할에는 Dataproc 서버리스 클러스터나 Dataproc 클러스터에서 노트북 파일을 실행하는 데 필요한 권한이 포함되어 있습니다. 필요한 정확한 권한을 보려면 필수 권한 섹션을 펼치세요.
필수 권한
Dataproc 서버리스 클러스터나 Dataproc 클러스터에서 노트북 파일을 실행하려면 다음 권한이 필요합니다.
-
dataproc.agents.create
-
dataproc.agents.delete
-
dataproc.agents.get
-
dataproc.agents.update
-
dataproc.tasks.lease
-
dataproc.tasks.listInvalidatedLeases
-
dataproc.tasks.reportStatus
-
dataproc.clusters.use
관리자는 커스텀 역할이나 다른 사전 정의된 역할을 사용하여 서비스 계정에 이러한 권한을 부여할 수도 있습니다.
Dataproc이 사용 설정된 인스턴스 만들기
Dataproc이 사용 설정된 Vertex AI Workbench 인스턴스를 만들려면 다음을 수행합니다.
Google Cloud 콘솔에서 인스턴스 페이지로 이동합니다.
새로 만들기를 클릭합니다.
새 인스턴스 대화상자에서 고급 옵션을 클릭합니다.
인스턴스 만들기 대화상자의 세부정보 섹션에서 Dataproc 사용 설정이 선택되어 있는지 확인합니다.
Workbench 유형이 인스턴스로 설정되어 있는지 확인합니다.
환경 섹션에서 최신 버전이나
M113
이상의 버전을 사용하고 있는지 확인합니다.만들기를 클릭합니다.
Vertex AI Workbench에서 인스턴스를 만들고 자동으로 시작합니다. 인스턴스를 사용할 수 있으면 Vertex AI Workbench에서 JupyterLab 열기 링크를 활성화합니다.
JupyterLab 열기
인스턴스 이름 옆에 있는 JupyterLab 열기를 클릭합니다.
JupyterLab 런처 탭이 브라우저에 열립니다. 기본적으로 Dataproc Serverless 노트북 및 Dataproc 작업 및 세션 섹션이 포함되어 있습니다. 선택한 프로젝트 및 리전에 Jupyter 지원 클러스터가 있는 경우 Dataproc 클러스터 노트북이라는 섹션이 있습니다.
Spark용 Dataproc Serverless와 함께 플러그인 사용
Vertex AI Workbench 인스턴스와 동일한 리전 및 프로젝트에 있는 Serverless Spark 런타임 템플릿은 JupyterLab 런처 탭의 Dataproc Serverless 노트북 섹션에 표시됩니다.
런타임 템플릿을 만들려면 Dataproc Serverless 런타임 템플릿 만들기를 참조하세요.
새 Serverless Spark 노트북을 열려면 런타임 템플릿을 클릭합니다. 원격 Spark 커널이 시작되는 데 약 1분 정도 걸립니다. 커널이 시작된 후 코딩을 시작할 수 있습니다. Serverless Spark에서 코드를 실행하려면 노트북에서 코드 셀을 실행합니다.
Compute Engine에서 Dataproc과 함께 플러그인 사용
Compute Engine Jupyter 클러스터에서 Dataproc을 만든 경우 런처 탭에 Dataproc 클러스터 노트북 섹션이 포함되어 있습니다.
해당 리전 및 프로젝트에서 액세스할 수 있는 Jupyter 지원 Dataproc 클러스터마다 4개의 카드가 표시됩니다.
리전 및 프로젝트를 변경하려면 다음을 수행하세요.
설정 > Cloud Dataproc 설정을 선택합니다.
설정 구성 탭의 프로젝트 정보에서 프로젝트 ID 및 리전을 변경한 후 저장을 클릭합니다.
이러한 변경사항은 JupyterLab을 다시 시작할 때까지 적용되지 않습니다.
JupyterLab을 다시 시작하려면 파일 > 종료를 선택한 후 Vertex AI Workbench 인스턴스 페이지에서 JupyterLab 열기를 클릭합니다.
새 노트북을 만들려면 카드를 클릭합니다. Dataproc 클러스터의 원격 커널이 시작되면 코드 작성을 시작한 후 클러스터에서 실행할 수 있습니다.
gcloud CLI를 사용하여 Vertex AI Workbench용 Dataproc 인스턴스 관리
Vertex AI Workbench 인스턴스는 기본적으로 Dataproc이 사용 설정된 상태로 생성됩니다. disable-mixer
metadata
키를 true
로 설정하여 Dataproc이 사용 중지된 Vertex AI Workbench 인스턴스를 만들 수 있습니다.
gcloud workbench instances create INSTANCE_NAME --metadata=disable-mixer=true
메타데이터 값을 업데이트하여 중지된 Vertex AI Workbench 인스턴스에서 Dataproc을 사용 설정할 수 있습니다.
gcloud workbench instances create INSTANCE_NAME --metadata=disable-mixer=false
Terraform을 사용하여 Dataproc 관리
Terraform에서 Vertex AI Workbench용 Dataproc 인스턴스는 메타데이터 필드의 disable-mixer
키를 통해 관리됩니다.
disable-mixer
metadata
키를 false
로 설정하여 Dataproc을 사용 설정합니다. disable-mixer
메타데이터 키를 true
로 설정하여 Dataproc을 사용 중지합니다.
Terraform 구성을 적용하거나 삭제하는 방법은 기본 Terraform 명령어를 참조하세요.
문제 해결
Dataproc이 사용 설정된 인스턴스 만들기와 관련된 문제를 진단하고 해결하려면 Vertex AI Workbench 문제 해결을 참조하세요.
다음 단계
Dataproc JupyterLab 플러그인에 대한 자세한 내용은 서버리스 일괄 및 대화형 노트북 세션에 JupyterLab 사용을 참조하세요.
Serverless Spark에 대한 자세한 내용은 Dataproc Serverless 문서를 참조하세요.
클러스터를 프로비저닝 및 관리하지 않고 Serverless Spark 워크로드를 실행하는 방법을 알아봅니다.
Google Cloud 제품 및 서비스와 함께 Spark를 사용하는 방법에 대한 자세한 내용은 Google Cloud 기반 Spark를 참조하세요.
사용 가능한 GitHub의 Dataproc 템플릿을 둘러봅니다.
GitHub의
serverless-spark-workshop
을 통해 Serverless Spark에 대해 알아보세요.Apache Spark 문서를 읽어보세요.