Model Garden의 AI 모델 살펴보기

Google Cloud 콘솔의 Model Garden은 Google 독점 정보를 검색, 테스트, 맞춤설정, 배포하고 OSS 모델 및 애셋을 선택할 수 있도록 지원하는 ML 모델 라이브러리입니다.

다음 주제에서는 Model Garden에서 사용할 수 있는 AI 모델과 이를 사용하는 방법을 소개합니다.

모델 살펴보기

사용 가능한 Vertex AI 목록과 조정 가능하고 특정 태스크에 해당하는 오픈소스 기반 모델을 보려면 Google Cloud 콘솔에서 Model Garden 페이지로 이동합니다.

Model Garden으로 이동

Model Garden에서 사용할 수 있는 모델 카테고리는 다음과 같습니다.

카테고리 설명
기반 모델 Vertex AI Studio, Vertex AI API, Python용 Vertex AI SDK를 사용하여 특정 태스크에 대해 조정하거나 맞춤설정할 수 있는 사전 학습된 멀티태스크 대규모 모델입니다.
미세 조정 가능한 모델 커스텀 노트북이나 파이프라인을 사용하여 미세 조정할 수 있는 모델입니다.
태스크별 솔루션 이러한 사전 빌드된 모델은 대부분 즉시 사용할 수 있습니다. 대부분 자체 데이터를 사용하여 맞춤설정할 수 있습니다.

필터 창에서 모델을 필터링하려면 다음을 지정합니다.

  • 형식: 모델에서 원하는 형식(데이터 유형)을 클릭합니다.
  • 태스크: 모델로 수행할 태스크를 클릭합니다.
  • 기능: 모델에서 지원하려는 기능을 클릭합니다.

각 모델에 대해 자세히 알아보려면 모델 카드를 클릭하세요.

Model Garden에서 사용 가능한 모델

Google의 퍼스트 파티 모델을 찾아 Model Garden에서 오픈소스 모델을 선택할 수 있습니다.

Google의 퍼스트 파티 모델 목록

다음 표에는 Model Garden에서 사용 가능한 Google의 퍼스트 파티 모델이 나와 있습니다.

모델 이름 형식 설명 빠른 시작
Gemini 1.5 Pro(미리보기) 언어, 오디오, 비전 텍스트 또는 코드 응답에 대한 텍스트 또는 채팅 프롬프트에서 이미지, 오디오, 동영상, PDF 파일 추가를 지원하는 멀티모달 모델입니다. 모델 카드
Gemini 1.0 Pro 언어 자연어 태스크, 멀티턴 텍스트 및 코드 채팅, 코드 생성을 처리하도록 설계되었습니다. 모델 카드
Gemini 1.0 Pro Vision 언어, 비전 텍스트 또는 코드 응답에 대한 텍스트 또는 채팅 프롬프트에서 이미지, 동영상 및 PDF 파일 추가를 지원하는 멀티모달 모델입니다. 모델 카드
텍스트용 PaLM 2 언어 자연어 안내를 따르도록 미세 조정되며 다양한 언어 태스크에 적합합니다. 모델 카드
채팅용 PaLM 2 언어 자연스러운 대화를 수행하도록 미세 조정됩니다. 이 모델을 사용하여 나만의 챗봇 애플리케이션을 빌드하고 맞춤설정할 수 있습니다. 모델 카드
코드 완성용 Codey 언어 코드 프롬프트를 기반으로 코드를 생성합니다. 코드 제안 및 코드 버그 최소화에 적합합니다. 모델 카드
코드 생성용 Codey 언어 자연어 입력을 기반으로 코드를 생성합니다. 함수, 클래스, 단위 테스트 등을 작성하는 데 적합합니다. 모델 카드
Code Chat용 Codey 언어 자연스러운 대화를 통해 코드 관련 지원을 받습니다. API, 지원되는 언어의 문법 등에 대한 질문에 적합합니다. 모델 카드
텍스트용 임베딩 언어 텍스트 데이터를 머신러닝 알고리즘, 특히 대규모 모델에서 처리할 수 있는 숫자 벡터로 변환합니다. 모델 카드
이미지 생성용 Imagen 비전 텍스트 프롬프트를 사용하여 스튜디오급 이미지를 규모에 맞게 만들거나 수정합니다. 모델 카드
자막 및 VQA용 Imagen 언어 주어진 이미지와 관련된 설명을 생성합니다. 모델 카드
멀티모달 임베딩 비전 이미지를 기반으로 벡터를 생성합니다. 이는 이미지 분류 및 이미지 검색과 같은 다운스트림 태스크에 사용할 수 있습니다. 모델 카드
Chirp 음성 20억 개 이상의 매개변수가 있고 단일 모델에서 100개가 넘는 언어로 텍스트 변환할 수 있는 범용 음성 모델 버전입니다. 모델 카드

Model Garden에서 오픈소스 미세 조정 또는 서빙 레시피가 있는 모델 목록

다음 표에는 Model Garden에서 오픈소스 조정 또는 서빙 레시피를 지원하는 OSS 모델이 나와 있습니다.

모델 이름 형식 설명 빠른 시작
Gemma 언어 Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드된 개방형 가중치 모델(2B, 7B)입니다. 모델 카드
CodeGemma 언어 코드 생성 및 코드 완성을 위해 설계된 개방형 가중치 모델(2B, 7B)로, Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드되었습니다. 모델 카드
Vicuna v1.5 언어 텍스트 생성을 위해 LLama2에서 미세 조정된 기반 모델인 Vicuna v1.5 시리즈 모델을 배포합니다. 모델 카드
NLLB 언어 다국어 번역을 위한 nllb 시리즈 모델을 배포합니다. Model Card
Colab
Mistral-7B 언어 텍스트 생성을 위한 기본 모델인 Mitral-7B를 배포합니다. Model Card
Colab
BioGPT 언어 생체 의학 도메인용 텍스트 생성 모델인 BioGPT를 배포합니다. Model Card
Colab
BiomedCLIP 언어, 비전 생체 의학 도메인용 멀티 모달 기반 모델인 BiomedCLIP를 배포합니다. Model Card
Colab
ImageBind 언어, 비전,
오디오
멀티 모달 임베딩을 위한 기본 모델인 ImageBind를 배포합니다. Model Card
Colab
DITO 언어, 비전 개방형 어휘 객체 감지 태스크를 위한 멀티 모달 기반 모델인 DITO를 미세 조정하고 배포합니다. Model Card
Colab
OWL-ViT v2 언어, 비전 개방형 어휘 객체 감지 태스크를 위한 멀티 모달 기반 모델인 OWL-ViT v2를 배포합니다. Model Card
Colab
FaceStylizer(Mediapipe) 비전 사람 얼굴 이미지를 새로운 스타일로 변환하는 생성 파이프라인입니다. Model Card
Colab
Llama 2 언어 Vertex AI에서 Meta의 Llama 2 기반 모델(7B, 13B, 70B)을 미세 조정하고 배포합니다. 모델 카드
Code Llama 언어 Vertex AI에 Meta의 Code Llama 기반 모델(7B, 13B, 34B)을 배포합니다. 모델 카드
Falcon-instruct 언어 PEFT를 사용하여 Falcon-instruct 모델(7B, 40B)을 미세 조정하고 배포합니다. Colab
모델 카드
OpenLLaMA 언어 PEFT를 사용하여 OpenLLaMA 모델(3B, 7B, 13B)을 미세 조정하고 배포합니다. Colab
모델 카드
T5-FLAN 언어 T5-FLAN(base, small, large)을 미세 조정하고 배포합니다. 모델 카드(미세 조정 파이프라인 포함)
BERT 언어 PEFT를 사용하여 BERT를 미세 조정하고 배포합니다. Colab
모델 카드
BART-large-cnn 언어 양방향(BERT 유사) 인코더와 자동 회귀(GPT 유사) 디코더를 사용하는 변환기 인코더-인코더(seq2seq) 모델인 BART를 배포합니다. Colab
모델 카드
RoBERTa-large 언어 PEFT를 사용하여 RoBERTa-large를 미세 조정하고 배포합니다. Colab
모델 카드
XLM-RoBERTa-large 언어 PEFT를 사용하여 XLM-RoBERTa-large(RoBERTa의 다국어 버전)를 미세 조정하고 배포합니다. Colab
모델 카드
Dolly-v2-7b 언어 매개변수가 69억 개 있는 안내형 대규모 언어 모델인 Dolly-v2-7b를 배포합니다. Colab
모델 카드
Stable Diffusion XL v1.0 언어, 비전 텍스트-이미지 생성을 지원하는 Stable Diffusion XL v1.0을 배포합니다. Colab
모델 카드
Stable Diffusion v2.1 언어, 비전 Dreambooth를 사용하여 Stable Diffusion v2.1(텍스트-이미지 생성 지원)을 미세 조정하고 배포합니다. Colab
모델 카드
Stable Diffusion 4x upscaler 언어, 비전 텍스트 조건부 이미지 초해상도를 지원하는 Stable Diffusion 4x upscaler를 배포합니다. Colab
모델 카드
InstructPix2Pix 언어, 비전 텍스트 프롬프트를 사용하여 이미지 수정을 지원하는 InstructPix2Pix를 배포합니다. Colab
모델 카드
Stable Diffusion Inpainting 언어, 비전 텍스트 프롬프트를 사용하여 마스킹된 이미지 인페인팅을 지원하는 Stable Diffusion Inpainting을 미세 조정하고 배포합니다. Colab
모델 카드
SAM 언어, 비전 제로샷 이미지 분할을 지원하는 Segment Anything을 배포합니다. Colab
모델 카드
텍스트-동영상(ModelScope) 언어, 비전 텍스트-동영상 생성을 지원하는 ModelScope Text-to-Video를 배포합니다. Colab
모델 카드
텍스트-동영상 제로샷 언어, 비전 제로샷 텍스트-동영상 생성을 지원하는 Stable Diffusion 텍스트-동영상 생성기를 배포합니다. Colab
모델 카드
Pic2Word 구성 이미지 가져오기 언어, 비전 멀티모달 구성 이미지 가져오기를 지원하는 Pic2Word를 배포합니다. Colab
모델 카드
BLIP2 언어, 비전 이미지 캡션 및 비전적 질문-답변을 지원하는 BLIP2를 배포합니다. Colab
모델 카드
Open-CLIP 언어, 비전 제로샷 분류를 지원하는 Open-CLIP를 미세 조정하고 배포합니다. Colab
모델 카드
F-VLM 언어, 비전 개방형 어휘 이미지 객체 감지를 지원하는 F-VLM을 배포합니다. Colab
모델 카드
tfhub/EfficientNetV2 비전 EfficientNetV2 이미지 분류 모델의 Tensorflow Vision 구현을 미세 조정하고 배포합니다. Colab
모델 카드
EfficientNetV2(TIMM) 비전 EfficientNetV2 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/EfficientNetV2 비전 EfficientNetV2 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
EfficientNetLite(MediaPipe) 비전 MediaPipe 모델 제조업체를 통해 EfficientNetLite 이미지 분류 모델을 미세 조정합니다. Colab
모델 카드
tfvision/vit 비전 ViT 이미지 분류 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. Colab
모델 카드
ViT(TIMM) 비전 ViT 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/ViT 비전 ViT 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/MaxViT 비전 MaxViT 하이브리드(CNN + ViT) 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
ViT(JAX) 비전 ViT 이미지 분류 모델의 JAX 구현을 미세 조정하고 배포합니다. Colab
모델 카드
tfvision/SpineNet 비전 SpineNet 객체 감지 모델의 Tensorflow Vision 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/Spinenet 비전 SpineNet 객체 감지 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
tfvision/YOLO 비전 YOLO 1단계 객체 감지 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/YOLO 비전 YOLO 1단계 객체 감지 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
YOLOv8(Keras) 비전 객체 감지를 위해 YOLOv8 모델의 Keras 구현을 미세 조정하고 배포합니다. Colab
모델 카드
tfvision/YOLOv7 비전 객체 감지를 위해 YOLOv7 모델을 미세 조정하고 배포합니다. Colab
모델 카드
ByteTrack 동영상 객체 추적 비전 ByteTrack 추적기를 사용하여 동영상 객체 추적에 대한 일괄 예측을 실행합니다. Colab
모델 카드
ResNeSt(TIMM) 비전 ResNeSt 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. Colab
모델 카드
ConvNeXt(TIMM) 비전 Vision Transformer의 설계에서 영감을 얻은 이미지 분류의 순수 합성곱 모델인 ConvNeXt를 미세 조정하고 배포합니다. Colab
모델 카드
CspNet(TIMM) 비전 CSPNet(교차 단계 부분 네트워크) 이미지 분류 모델을 미세 조정하고 배포합니다. Colab
모델 카드
Inception(TIMM) 비전 Inception 이미지 분류 모델을 미세 조정하고 배포합니다. Colab
모델 카드
DeepLabv3+(체크포인트 포함) 비전 시맨틱 이미지 분할을 위해 DeepLab-v3 Plus 모델을 미세 조정하고 배포합니다. Colab
모델 카드
Faster R-CNN(Detectron2) 비전 이미지 객체 감지를 위해 Faster R-CNN 모델의 Detectron2 구현을 미세 조정하고 배포합니다. Colab
모델 카드
RetinaNet(Detectron2) 비전 이미지 객체 감지를 위해 RetinaNet 모델의 Detectron2 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Mask R-CNN(Detectron2) 비전 이미지 객체 감지 및 세분화를 위해 Mask R-CNN 모델의 Detectron2 구현을 미세 조정하고 배포합니다. Colab
모델 카드
ControlNet 비전 ControlNet 텍스트-이미지 생성 모델을 미세 조정하고 배포합니다. Colab
모델 카드
MobileNet(TIMM) 비전 MobileNet 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. Colab
모델 카드
MobileNetV2(MediaPipe) Image Classification 비전 MediaPipe 모델 제조업체를 사용하여 MobileNetV2 이미지 분류 모델을 미세 조정합니다. Colab
모델 카드
MobileNetV2(MediaPipe) 객체 감지 비전 MediaPipe 모델 제조업체를 사용하여 MobileNetV2 객체 감지 모델을 미세 조정합니다. Colab
모델 카드
MobileNet-MultiHW-AVG(MediaPipe) 비전 MediaPipe 모델 제조업체를 사용하여 MobileNet-MultiHW-AVG 객체 감지 모델을 미세 조정합니다. Colab
모델 카드
DeiT 비전 이미지 분류를 위해 DeiT(데이터 효율적인 이미지 변환기) 모델을 미세 조정하고 배포합니다. Colab
모델 카드
BEiT 비전 이미지 분류를 위해 BEiT(이미지 변환기의 양방향 인코더 표현) 모델을 미세 조정하고 배포합니다. Colab
모델 카드
손 동작 인식(MediaPipe) 비전 MediaPipe를 사용하여 기기에서 손 동작 인식 모델을 미세 조정하고 배포합니다. Colab
모델 카드
평균 단어 임베딩 분류기(MediaPipe) 비전 MediaPipe를 사용하여 기기에서 평균 단어 임베딩 분류 모델을 미세 조정하고 배포합니다. Colab
모델 카드
MobileBERT Classifier(MediaPipe) 비전 MediaPipe를 사용하여 기기에서 MobileBERT 분류기 모델을 미세 조정하고 배포합니다. Colab
모델 카드
MoViNet 동영상 클립 분류 동영상 MoViNet 동영상 클립 분류 모델을 미세 조정하고 배포합니다. Colab
모델 카드
MoViNet 동영상 동작 인식 동영상 동작 인식 추론을 위해 MoViNet 모델을 미세 조정하고 배포합니다. Colab
모델 카드
Stable Diffusion XL LCM 비전 LCM(Latent Consistency Model)을 사용하는 이 모델을 배포하여 더 적은 단계로 빠른 고품질 이미지를 생성함으로써 잠재 확산 모델(Latent Diffusion Models)에서 텍스트-이미지 변환을 향상합니다. Colab
모델 카드
LLaVA 1.5 비전, 언어 LLaVA 1.5 모델을 배포합니다. Colab
모델 카드
Pytorch-ZipNeRF 비전, 동영상 2D 이미지에서 효율적이고 정확한 3D 재구성을 위해 설계된 Pytorch 프레임워크에서 ZipNeRF 알고리즘을 최첨단으로 구현한 Pytorch-ZipNeRF 모델을 학습시킵니다. Colab
모델 카드
WizardLM 언어 Evol-Instruct 메서드를 조율하여 복잡한 안내에 따라 미세 조정되고 Microsoft에서 개발한 대규모 언어 모델(LLM)인 WizardLM을 배포합니다. Colab
모델 카드
WizardCoder 언어 Evol-Instruct 메서드를 코드 도메인에 맞춰 조율하여 복잡한 안내에 따라 미세 조정되고 Microsoft에서 개발한 대규모 언어 모델(LLM)인 WizardLM을 배포합니다. Colab
모델 카드
Mixtral 8x7B 언어 Mixtral AI가 개발한 전문가 망(MoE) 대규모 언어 모델(LLM)인 Mixtral 8x7B 모델을 배포합니다. 46.7B 매개변수가 있는 디코더 전용 모델이며 여러 벤치마크에서 LLaMA 2 70B 및 GPT 3.5와 일치하거나 더 우수한 성능을 발휘하는 것으로 보고되었습니다. Colab
모델 카드
Llama 2(양자화) 언어 Meta의 Llama 2 모델의 양자화 버전을 미세 조정하고 배포합니다. Colab
모델 카드
LaMa(Large Mask Inpainting) 비전 수용성이 높은 현장 지각 손실과 대규모 학습 마스크로 해상도가 높은 이미지 인페인팅을 지원하는 고속 Fourier 컨볼루션(FFC)을 사용하는 LaMa를 배포합니다. Colab
모델 카드
AutoGluon 테이블 형식 AutoGluon을 사용하면 테이블 형식 데이터에 대해 정확성이 높은 머신러닝 및 딥 러닝 모델을 학습시키고 배포할 수 있습니다. Colab
모델 카드

Model Garden에서 사용 가능한 파트너 모델 목록

다음 표에는 Model Garden에서 사용할 수 있는 Google 파트너의 모델이 나와 있습니다.

모델 이름 형식 설명 빠른 시작
Anthropic Claude 3 Sonnet 언어 기업 워크로드를 위해 인텔리전스와 속도를 혼합한 균형 잡힌 비전과 텍스트 모델입니다. 저비용의 확장 AI 배포를 위해 설계되었습니다. 모델 카드
Anthropic Claude 3 Haiku 언어 Anthropic은 가장 빠르고 간결한 비전 및 텍스트 모델을 통해 간단한 쿼리에 신속하게 응답할 수 있습니다. 인간 상호작용을 모방하는 AI 환경을 위한 것입니다. 모델 카드

모델 카드 사용 방법

연결된 모델을 사용하려면 모델 카드를 클릭합니다. 예를 들어 모델 카드를 클릭하여 프롬프트를 테스트하고, 모델을 조정하고, 애플리케이션을 만들고, 코드 샘플을 볼 수 있습니다.

모델 카드와 연결된 모델을 사용하는 방법을 알아보려면 다음 탭 중 하나를 클릭합니다.

프롬프트 테스트

Vertex AI PaLM API 모델 카드를 사용하여 프롬프트를 테스트합니다.

  1. Google Cloud 콘솔에서 Model Garden 페이지로 이동합니다.

    Model Garden으로 이동

  2. 테스트하려는 지원되는 모델을 찾아서 세부정보 보기를 클릭합니다.

  3. 프롬프트 설계 열기를 클릭합니다.

    프롬프트 설계 페이지가 표시됩니다.

  4. 프롬프트에서 테스트할 프롬프트를 입력합니다.

  5. (선택사항) 모델 매개변수를 구성합니다.

  6. 제출을 클릭합니다.

모델 조정

지원되는 모델을 조정하려면 Vertex AI 파이프라인 또는 노트북을 사용합니다.

파이프라인을 사용하여 조정

BERT 및 T5-FLAN 모델은 파이프라인을 사용한 모델 조정을 지원합니다.

  1. Google Cloud 콘솔에서 Model Garden 페이지로 이동합니다.

    Model Garden으로 이동

  2. 모델 검색에서 BERT 또는 T5 FLAN을 입력한 다음 돋보기를 클릭하여 검색합니다.

  3. T5-FLAN 또는 BERT 모델 카드에서 세부정보 보기를 클릭합니다.

  4. 미세 조정 파이프라인 열기를 클릭합니다.

    Vertex AI 파이프라인 페이지가 표시됩니다.

  5. 조정을 시작하려면 실행 만들기를 클릭합니다.

노트북에서 조정

대부분의 오픈소스 기반 모델 및 미세 조정 가능한 모델의 모델 카드는 노트북에서 조정을 지원합니다.

  1. Google Cloud 콘솔에서 Model Garden 페이지로 이동합니다.

    Model Garden으로 이동

  2. 조정하려는 지원되는 모델을 찾아서 세부정보 보기를 클릭합니다.

  3. 노트북 열기를 클릭합니다.

모델 배포

안정적인 분산 모델의 모델 카드는 엔드포인트에 배포를 지원합니다.

  1. Google Cloud 콘솔에서 Model Garden 페이지로 이동합니다.

    Model Garden으로 이동

  2. 배포하려는 지원되는 모델을 찾습니다. 모델 카드에서 세부정보 보기를 클릭합니다.

  3. 배포를 클릭합니다.

    모델 복사본을 Model Registry에 저장하라는 메시지가 표시됩니다.

  4. 모델 이름에 모델 이름을 입력합니다.

  5. 저장을 클릭합니다.

    엔드포인트에 배포 창이 나타납니다.

  6. 다음과 같이 엔드포인트를 정의합니다.

    • 엔드포인트 이름: 엔드포인트 이름을 입력합니다.
    • 리전: 엔드포인트를 만들 리전을 선택합니다.
    • 액세스: REST API를 통해 엔드포인트에 액세스할 수 있게 하려면 표준을 선택합니다. 엔드포인트에 대해 비공개 연결을 만들려면 비공개를 선택합니다.
  7. 계속을 클릭합니다.

  8. Google Cloud 콘솔의 안내에 따라 모델 설정을 구성합니다.

  9. 계속을 클릭합니다.

  10. (선택사항) 이 엔드포인트에 모델 모니터링 사용 설정 전환 버튼을 클릭하여 모델 모니터링을 사용 설정합니다.

  11. 배포를 클릭합니다.

코드 샘플 보기

태스크별 솔루션 모델에 대한 대부분의 모델 카드에는 복사 및 테스트할 수 있는 코드 샘플이 포함되어 있습니다.

  1. Google Cloud 콘솔에서 Model Garden 페이지로 이동합니다.

    Model Garden으로 이동

  2. 코드 샘플을 보려는 지원되는 모델을 찾고 문서 탭을 클릭합니다.

  3. 샘플 코드가 해당 위치에 삽입된 문서 섹션으로 페이지가 스크롤됩니다.

비전 앱 만들기

적용 가능한 컴퓨터 비전 모델의 모델 카드는 비전 애플리케이션 만들기를 지원합니다.

  1. Google Cloud 콘솔에서 Model Garden 페이지로 이동합니다.

    Model Garden으로 이동

  2. 태스크별 솔루션 섹션에서 비전 애플리케이션을 만들기 위해 사용하려는 비전 모델을 찾고 세부정보 보기를 클릭합니다.

  3. 앱 빌드를 클릭합니다.

    Vertex AI Vision이 표시됩니다.

  4. 애플리케이션 이름에 애플리케이션 이름을 입력하고 계속을 클릭합니다.

  5. 요금제를 선택하고 만들기를 클릭합니다.

    컴퓨터 비전 애플리케이션 만들기를 계속 할 수 있는 Vertex AI Vision 스튜디오로 이동합니다.

가격 책정

Model Garden의 오픈소스 모델은 Vertex AI에서 다음 항목을 사용하는 경우 요금이 부과됩니다.

  • 모델 미세 조정: 커스텀 학습과 동일한 요율로 사용되는 컴퓨팅 리소스에 대한 요금이 부과됩니다. 커스텀 학습 가격 책정을 참조하세요.
  • 모델 배포: 모델을 엔드포인트에 배포하는 데 사용되는 컴퓨팅 리소스에 대한 비용이 청구됩니다. 예측 가격 책정을 참조하세요.
  • Colab Enterprise: Colab Enterprise 가격 책정을 참조하세요.

다음 단계