Model Garden에서 지원하는 모델

Google의 퍼스트 파티 모델 목록

다음 표에는 Model Garden에서 사용 가능한 Google의 퍼스트 파티 모델이 나와 있습니다.

모델 이름 형식 설명 빠른 시작
Gemini 2.0 Flash 언어, 오디오, 비전 모든 일상적인 작업을 위한 워크호스 모델로, 향상된 성능을 제공하며 실시간 Live API를 지원합니다. 모델 카드
Gemini 2.0 Flash-Lite (미리보기) 언어, 오디오, 비전 가장 빠르고 비용 효율적인 Flash 모델입니다. 동일한 가격과 속도로 1.5보다 우수한 품질을 제공합니다. 모델 카드
Gemini 2.0 Pro (실험용) 언어, 오디오, 비전 코딩 및 실질적인 지식에 관한 Google의 가장 강력한 모델로 2백만 개의 컨텍스트 윈도우가 있습니다. 모델 카드
Gemini 1.5 Flash 언어, 오디오, 비전 가장 빠르고 비용 효율적인 Gemini 멀티모달 모델입니다. 대용량 작업과 지연 시간에 민감한 저렴한 애플리케이션을 위해 설계되었습니다. Gemini 1.5 Flash는 반응성이 뛰어나므로 채팅 어시스턴트와 주문형 콘텐츠 생성 애플리케이션을 만드는 데 적합합니다. 모델 카드
Gemini 1.5 Pro 언어, 오디오, 비전 텍스트 또는 코드 응답에 대한 텍스트 또는 채팅 프롬프트에서 이미지, 오디오, 동영상, PDF 파일 추가를 지원하는 멀티모달 모델입니다. 모델 카드
Gemini 1.0 Pro 언어 자연어 태스크, 멀티턴 텍스트 및 코드 채팅, 코드 생성을 처리하도록 설계되었습니다. 모델 카드
Gemini 1.0 Pro Vision 언어, 비전 텍스트 또는 코드 응답에 대한 텍스트 또는 채팅 프롬프트에서 이미지, 동영상 및 PDF 파일 추가를 지원하는 멀티모달 모델입니다. 모델 카드
텍스트용 PaLM 2  언어 자연어 안내를 따르도록 미세 조정되며 다양한 언어 태스크에 적합합니다. 모델 카드
채팅용 PaLM 2  언어 자연스러운 대화를 진행하도록 미세 조정되었습니다. 이 모델을 사용하여 자체 챗봇 애플리케이션을 빌드하고 맞춤설정합니다. 모델 카드
코드 완성용 Codey 언어 코드 프롬프트를 기반으로 코드를 생성합니다. 코드 제안 및 코드 버그 최소화에 적합합니다. 모델 카드
코드 생성을 위한 Codey 언어 자연어 입력을 기반으로 코드를 생성합니다. 함수, 클래스, 단위 테스트 등을 작성하는 데 적합합니다. 모델 카드
Code Chat용 Codey 언어 자연스러운 대화를 통해 코드 관련 지원을 받으세요. API, 지원되는 언어의 문법 등에 대한 질문에 적합합니다. 모델 카드
텍스트용 임베딩 언어 텍스트 데이터를 머신러닝 알고리즘, 특히 대규모 모델에서 처리할 수 있는 숫자 벡터로 변환합니다. 모델 카드
이미지 생성용 Imagen Vision 텍스트 프롬프트를 사용하여 스튜디오급 이미지를 대규모로 만듭니다. 이 모델을 사용하여 이미지를 확대할 수도 있습니다. 모델 카드
수정 및 맞춤설정을 위한 Imagen Vision 샘플이 적은 학습을 수정하거나 사용하여 기본 이미지와 텍스트 프롬프트 또는 참조 이미지와 텍스트 프롬프트를 사용하여 스튜디오급 이미지를 대규모로 만듭니다. 모델 카드
Vertex 이미지 분할 (미리보기) Vision 텍스트 프롬프트를 사용하거나 낙서를 그려 이미지를 분할합니다. 이미지 분할을 사용하면 객체를 감지하거나, 이미지의 배경을 삭제하거나, 이미지의 전경을 분할할 수 있습니다. 모델 카드
자막 및 VQA용 Imagen 언어 주어진 이미지와 관련된 설명을 생성합니다. 모델 카드
멀티모달용 임베딩 Vision 이미지를 기반으로 벡터를 생성하며, 이 벡터는 이미지 분류 및 이미지 검색과 같은 다운스트림 작업에 사용할 수 있습니다. 모델 카드
Chirp 음성 20억 개 이상의 매개변수가 있고 단일 모델에서 100개가 넘는 언어로 텍스트 변환할 수 있는 범용 음성 모델 버전입니다. 모델 카드

Model Garden에서 오픈소스 미세 조정 또는 서빙 레시피가 있는 모델 목록

다음 표에는 Model Garden에서 오픈소스 조정 또는 서빙 레시피를 지원하는 OSS 모델이 나와 있습니다.

모델 이름 형식 설명 빠른 시작
Llama 3.3 언어 Meta Llama 3.3 다국어 대규모 언어 모델 (LLM)은 700억 개 (텍스트 입력/텍스트 출력)로 선행 학습되고 명령이 조정된 생성형 모델입니다. 모델 카드
플럭스 Vision 텍스트 설명에서 고품질 이미지를 생성하는 120억 개 매개변수의 수정된 흐름 변환기 모델입니다. 모델 카드
Prompt Guard 언어 탈옥 기법 및 간접 삽입으로부터 LLM 입력을 가드레일로 보호합니다. 모델 카드
Llama 3.2 언어 10억 개 및 30억 개 크기로 선행 학습되고 명령이 조정된 생성형 모델인 다국어 대규모 언어 모델 모음입니다. 모델 카드
Llama 3.2-Vision 언어, 비전 110억 개 및 900억 개 크기로 선행 학습되고 명령이 조정된 이미지 추론 생성형 모델인 멀티모달 대규모 언어 모델 모음입니다. 이러한 모델은 시각적 인식, 이미지 추론, 캡션, 이미지에 관한 일반적인 질문에 답변하는 데 최적화되어 있습니다. 모델 카드
Llama Guard 3 언어 콘텐츠 안전성 분류를 위해 미세 조정된 사전 학습된 Llama-3.1-8B 모델입니다. 모델 카드
Qwen2 언어 기반 대규모 언어 모델 시리즈인 Qwen2를 배포합니다. Colab
모델 카드
Phi-3 언어 기반 대규모 언어 모델 시리즈인 Phi-3를 배포합니다. Colab
모델 카드
E5 언어 텍스트 임베딩 모델 시리즈인 E5를 배포합니다. Colab
모델 카드
인스턴트 ID 언어, 비전 ID를 보존하는 텍스트-이미지 생성 모델인 인스턴트 ID를 배포합니다. Colab
모델 카드
Llama 3 언어 Vertex AI에서 Meta의 Llama 3 모델(8B, 70B, 405B)을 살펴보고 빌드하세요. 모델 카드
Gemma 2 언어 Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드된 개방형 가중치 모델(9B, 27B)입니다. 모델 카드
Gemma 언어 Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드된 개방형 가중치 모델(2B, 7B)입니다. 모델 카드
CodeGemma 언어 코드 생성 및 코드 완성을 위해 설계된 개방형 가중치 모델(2B, 7B)로, Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드되었습니다. 모델 카드
PaliGemma 언어 이미지 캡션 작업 및 시각적 질문 및 답변 작업을 위해 설계된 개방형 가중치 3B 모델로, Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드되었습니다. 모델 카드
Vicuna v1.5 언어 텍스트 생성을 위해 LLama2에서 미세 조정된 기반 모델인 Vicuna v1.5 시리즈 모델을 배포합니다. 모델 카드
NLLB 언어 다국어 번역을 위한 nllb 시리즈 모델을 배포합니다. 모델 카드
Colab
Mistral-7B 언어 텍스트 생성을 위한 기본 모델인 Mitral-7B를 배포합니다. 모델 카드
BioGPT 언어 생체 의학 도메인용 텍스트 생성 모델인 BioGPT를 배포합니다. 모델 카드
Colab
BiomedCLIP 언어, 비전 생체 의학 도메인용 멀티 모달 기반 모델인 BiomedCLIP를 배포합니다. 모델 카드
Colab
ImageBind 언어, 비전,
오디오
멀티 모달 임베딩을 위한 기본 모델인 ImageBind를 배포합니다. 모델 카드
Colab
DITO 언어, 비전 개방형 어휘 객체 감지 태스크를 위한 멀티 모달 기반 모델인 DITO를 미세 조정하고 배포합니다. 모델 카드
Colab
OWL-ViT v2 언어, 비전 개방형 어휘 객체 감지 태스크를 위한 멀티 모달 기반 모델인 OWL-ViT v2를 배포합니다. 모델 카드
Colab
FaceStylizer(Mediapipe) Vision 사람 얼굴 이미지를 새로운 스타일로 변환하는 생성 파이프라인입니다. 모델 카드
Colab
Llama 2 언어 Vertex AI에서 Meta의 Llama 2 기반 모델(7B, 13B, 70B)을 미세 조정하고 배포합니다. 모델 카드
Code Llama 언어 Vertex AI에 Meta의 Code Llama 기반 모델(7B, 13B, 34B)을 배포합니다. 모델 카드
Falcon-instruct 언어 PEFT를 사용하여 Falcon-instruct 모델(7B, 40B)을 미세 조정하고 배포합니다. Colab
모델 카드
OpenLLaMA 언어 PEFT를 사용하여 OpenLLaMA 모델(3B, 7B, 13B)을 미세 조정하고 배포합니다. Colab
모델 카드
T5-FLAN 언어 T5-FLAN(base, small, large)을 미세 조정하고 배포합니다. 모델 카드(미세 조정 파이프라인 포함)
BERT 언어 PEFT를 사용하여 BERT를 미세 조정하고 배포합니다. Colab
모델 카드
BART-large-cnn 언어 양방향(BERT 유사) 인코더와 자동 회귀(GPT 유사) 디코더를 사용하는 변환기 인코더-인코더(seq2seq) 모델인 BART를 배포합니다. Colab
모델 카드
RoBERTa-large 언어 PEFT를 사용하여 RoBERTa-large를 미세 조정하고 배포합니다. Colab
모델 카드
XLM-RoBERTa-large 언어 PEFT를 사용하여 XLM-RoBERTa-large(RoBERTa의 다국어 버전)를 미세 조정하고 배포합니다. Colab
모델 카드
Dolly-v2-7b 언어 매개변수가 69억 개 있는 안내형 대규모 언어 모델인 Dolly-v2-7b를 배포합니다. Colab
모델 카드
Stable Diffusion XL v1.0 언어, 비전 텍스트-이미지 생성을 지원하는 Stable Diffusion XL v1.0을 배포합니다. Colab
모델 카드
Stable Diffusion XL Lightning 언어, 비전 텍스트-이미지 생성 모델인 Stable Diffusion XL Lightning을 배포합니다. Colab
모델 카드
Stable Diffusion v2.1 언어, 비전 Dreambooth를 사용하여 Stable Diffusion v2.1(텍스트-이미지 생성 지원)을 미세 조정하고 배포합니다. Colab
모델 카드
Stable Diffusion 4x upscaler 언어, 비전 텍스트 조건부 이미지 초해상도를 지원하는 Stable Diffusion 4x upscaler를 배포합니다. Colab
모델 카드
InstructPix2Pix 언어, 비전 텍스트 프롬프트를 사용하여 이미지 수정을 지원하는 InstructPix2Pix를 배포합니다. Colab
모델 카드
Stable Diffusion Inpainting 언어, 비전 텍스트 프롬프트를 사용하여 마스킹된 이미지 인페인팅을 지원하는 Stable Diffusion Inpainting을 미세 조정하고 배포합니다. Colab
모델 카드
SAM 언어, 비전 제로샷 이미지 분할을 지원하는 Segment Anything을 배포합니다. Colab
모델 카드
텍스트-동영상(ModelScope) 언어, 비전 텍스트-동영상 생성을 지원하는 ModelScope Text-to-Video를 배포합니다. Colab
모델 카드
Pic2Word 구성 이미지 가져오기 언어, 비전 멀티모달 구성 이미지 가져오기를 지원하는 Pic2Word를 배포합니다. Colab
모델 카드
BLIP2 언어, 비전 이미지 캡션 및 비전적 질문-답변을 지원하는 BLIP2를 배포합니다. Colab
모델 카드
Open-CLIP 언어, 비전 제로샷 분류를 지원하는 Open-CLIP를 미세 조정하고 배포합니다. Colab
모델 카드
F-VLM 언어, 비전 개방형 어휘 이미지 객체 감지를 지원하는 F-VLM을 배포합니다. Colab
모델 카드
tfhub/EfficientNetV2 Vision EfficientNetV2 이미지 분류 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. Colab
모델 카드
EfficientNetV2(TIMM) Vision EfficientNetV2 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/EfficientNetV2 Vision EfficientNetV2 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
EfficientNetLite(MediaPipe) Vision MediaPipe 모델 제조업체를 통해 EfficientNetLite 이미지 분류 모델을 미세 조정합니다. Colab
모델 카드
tfvision/vit Vision ViT 이미지 분류 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. Colab
모델 카드
ViT(TIMM) Vision ViT 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/ViT Vision ViT 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/MaxViT Vision MaxViT 하이브리드(CNN + ViT) 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
ViT(JAX) Vision ViT 이미지 분류 모델의 JAX 구현을 미세 조정하고 배포합니다. Colab
모델 카드
tfvision/SpineNet Vision SpineNet 객체 감지 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/Spinenet Vision SpineNet 객체 감지 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
tfvision/YOLO Vision YOLO 1단계 객체 감지 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Proprietary/YOLO Vision YOLO 1단계 객체 감지 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. Colab
모델 카드
YOLOv8(Keras) Vision 객체 감지를 위해 YOLOv8 모델의 Keras 구현을 미세 조정하고 배포합니다. Colab
모델 카드
tfvision/YOLOv7 Vision 객체 감지를 위해 YOLOv7 모델을 미세 조정하고 배포합니다. Colab
모델 카드
ByteTrack 동영상 객체 추적 Vision ByteTrack 추적기를 사용하여 동영상 객체 추적에 대한 일괄 예측을 실행합니다. Colab
모델 카드
ResNeSt(TIMM) Vision ResNeSt 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. Colab
모델 카드
ConvNeXt(TIMM) Vision Vision Transformer의 설계에서 영감을 얻은 이미지 분류의 순수 합성곱 모델인 ConvNeXt를 미세 조정하고 배포합니다. Colab
모델 카드
CspNet(TIMM) Vision CSPNet(교차 단계 부분 네트워크) 이미지 분류 모델을 미세 조정하고 배포합니다. Colab
모델 카드
Inception(TIMM) Vision Inception 이미지 분류 모델을 미세 조정하고 배포합니다. Colab
모델 카드
DeepLabv3+(체크포인트 포함) Vision 시맨틱 이미지 분할을 위해 DeepLab-v3 Plus 모델을 미세 조정하고 배포합니다. Colab
모델 카드
Faster R-CNN(Detectron2) Vision 이미지 객체 감지를 위해 Faster R-CNN 모델의 Detectron2 구현을 미세 조정하고 배포합니다. Colab
모델 카드
RetinaNet(Detectron2) Vision 이미지 객체 감지를 위해 RetinaNet 모델의 Detectron2 구현을 미세 조정하고 배포합니다. Colab
모델 카드
Mask R-CNN(Detectron2) Vision 이미지 객체 감지 및 세분화를 위해 Mask R-CNN 모델의 Detectron2 구현을 미세 조정하고 배포합니다. Colab
모델 카드
ControlNet Vision ControlNet 텍스트-이미지 생성 모델을 미세 조정하고 배포합니다. Colab
모델 카드
MobileNet(TIMM) Vision MobileNet 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. Colab
모델 카드
MobileNetV2(MediaPipe) Image Classification Vision MediaPipe 모델 제조업체를 사용하여 MobileNetV2 이미지 분류 모델을 미세 조정합니다. Colab
모델 카드
MobileNetV2(MediaPipe) 객체 감지 Vision MediaPipe 모델 제조업체를 사용하여 MobileNetV2 객체 감지 모델을 미세 조정합니다. Colab
모델 카드
MobileNet-MultiHW-AVG(MediaPipe) Vision MediaPipe 모델 제조업체를 사용하여 MobileNet-MultiHW-AVG 객체 감지 모델을 미세 조정합니다. Colab
모델 카드
DeiT Vision 이미지 분류를 위해 DeiT(데이터 효율적인 이미지 변환기) 모델을 미세 조정하고 배포합니다. Colab
모델 카드
BEiT Vision 이미지 분류를 위해 BEiT(이미지 변환기의 양방향 인코더 표현) 모델을 미세 조정하고 배포합니다. Colab
모델 카드
손 동작 인식(MediaPipe) Vision MediaPipe를 사용하여 기기에서 손 동작 인식 모델을 미세 조정하고 배포합니다. Colab
모델 카드
평균 단어 임베딩 분류기(MediaPipe) Vision MediaPipe를 사용하여 기기에서 평균 단어 임베딩 분류 모델을 미세 조정하고 배포합니다. Colab
모델 카드
MobileBERT Classifier(MediaPipe) Vision MediaPipe를 사용하여 기기에서 MobileBERT 분류기 모델을 미세 조정하고 배포합니다. Colab
모델 카드
MoViNet 동영상 클립 분류 동영상 MoViNet 동영상 클립 분류 모델을 미세 조정하고 배포합니다. Colab
모델 카드
MoViNet 동영상 동작 인식 동영상 동작 인식 추론을 위해 MoViNet 모델을 미세 조정하고 배포합니다. Colab
모델 카드
Stable Diffusion XL LCM Vision LCM(Latent Consistency Model)을 사용하는 이 모델을 배포하여 더 적은 단계로 빠른 고품질 이미지를 생성함으로써 잠재 확산 모델(Latent Diffusion Models)에서 텍스트-이미지 변환을 향상합니다. Colab
모델 카드
LLaVA 1.5 비전, 언어 LLaVA 1.5 모델 배포 Colab
모델 카드
Pytorch-ZipNeRF 비전, 동영상 2D 이미지에서 효율적이고 정확한 3D 재구성을 위해 설계된 Pytorch 프레임워크에서 ZipNeRF 알고리즘을 최첨단으로 구현한 Pytorch-ZipNeRF 모델을 학습시킵니다. Colab
모델 카드
Mixtral 언어 Mixtral AI가 개발한 전문가 망(MoE) 대규모 언어 모델(LLM)인 Mixtral 모델을 배포합니다. 모델 카드
Llama 2(양자화) 언어 Meta의 Llama 2 모델의 양자화 버전을 미세 조정하고 배포합니다. Colab
모델 카드
LaMa(Large Mask Inpainting) Vision 수용성이 높은 현장 지각 손실과 대규모 학습 마스크로 해상도가 높은 이미지 인페인팅을 지원하는 고속 Fourier 컨볼루션(FFC)을 사용하는 LaMa를 배포합니다. Colab
모델 카드
AutoGluon 테이블 형식 AutoGluon을 사용하면 테이블 형식 데이터에 대해 정확성이 높은 머신러닝 및 딥 러닝 모델을 학습시키고 배포할 수 있습니다. Colab
모델 카드
MaMMUT 언어, 비전 시각적 질의 응답, 이미지-텍스트 검색, 텍스트-이미지 검색, 멀티모달 임베딩 생성과 같은 멀티모달 태스크를 위한 비전 인코더 및 텍스트 디코더 아키텍처입니다. Colab
모델 카드
속삭임(대) 음성 자동 음성 인식 (ASR)을 위한 OpenAI의 최신 모델인 Whisper Large를 배포합니다. Colab
모델 카드

Model Garden에서 사용할 수 있는 파트너 모델 목록

일부 파트너 모델은 Vertex AI Model Garden(서비스형 모델이라고도 함)에서 관리형 API로 제공됩니다. 다음 표에는 Model Garden에서 사용할 수 있는 Google 파트너의 모델이 나와 있습니다.

모델 이름 형식 설명 빠른 시작
Anthropic의 Claude 3.5 Sonnet v2 언어 업그레이드된 Claude 3.5 Sonnet은 실제 소프트웨어 엔지니어링 작업 및 에이전트 기능을 위한 최첨단 모델입니다. Claude 3.5 Sonnet은 이전 모델과 동일한 가격과 속도로 이렇게 진보된 기능을 제공합니다. 모델 카드
Anthropic의 Claude 3.5 Haiku 언어 Anthropic의 차세대 모델인 Claude 3.5 Haiku는 가장 빠르고 비용 효율적인 모델로, 속도와 경제성이 중요한 사용 사례에 적합합니다. 모델 카드
Anthropic의 Claude 3 Opus 언어 매우 복잡한 작업에서 최상위 수준의 성능을 발휘하는 강력한 AI 모델입니다. 탁월한 유창성과 인간과 유사한 이해력을 바탕으로 개방형 프롬프트와 불확실한 시나리오를 탐색할 수 있습니다. 모델 카드
Anthropic의 Claude 3 Haiku 언어 Anthropic의 가장 빠른 비전 및 텍스트 모델로, 인간의 상호작용을 모방하는 원활한 AI 환경을 위해 기본 쿼리에 거의 즉각적으로 응답할 수 있습니다. 모델 카드
Anthropic의 Claude 3.5 Sonnet 언어 Claude 3.5 Sonnet은 Anthropic의 중간 등급 모델인 Claude 3 Sonnet의 속도와 비용으로 광범위한 Anthropic 평가에서 Anthropic의 Claude 3 Opus를 능가합니다. 모델 카드
Jamba 1.5 Large(미리보기) 언어 AI21 Labs의 Jamba 1.5 Large는 우수한 품질의 응답, 높은 처리량, 동급 다른 모델에 비해 경쟁력 있는 가격을 제공하도록 설계되었습니다. 모델 카드
Jamba 1.5 Mini (미리보기) 언어 AI21 Labs의 Jamba 1.5 Mini는 품질, 처리량, 저렴한 비용 전반에 걸쳐 균형이 잘 잡혀 있습니다. 모델 카드
Llama 3.3 (미리보기) 언어 Llama 3.3은 텍스트 전용 70B 명령어 조정 모델로, 텍스트 전용 애플리케이션에 사용될 때 Llama 3.1 70B 및 Llama 3.2 90B에 비해 향상된 성능을 제공합니다. 또한 일부 애플리케이션의 경우 Llama 3.3 70B가 Llama 3.1 405B의 성능에 근접합니다. 모델 카드
Llama 3.2(미리보기) 언어, 비전 차트 및 그래프 분석, 이미지 캡션과 같은 이미지 추론을 지원할 수 있는 중형 90B 멀티모달 모델입니다. 모델 카드
Llama 3.1 (GA미리보기) 언어

다국어 대화 사용 사례에 최적화된 다국어 LLM 모음으로, 일반적인 업계 벤치마크에서 사용 가능한 여러 오픈소스 및 비공개 채팅 모델보다 성능이 우수합니다.

Llama 3.1 405B는 정식 버전 (GA)으로 제공되며 100만 개 토큰당 1달러의 가격이 책정됩니다. 가격 책정을 참조하세요.

Llama 3.1 8B 및 Llama 3.1 70B는 무료 미리보기 버전으로 제공됩니다.

모델 카드
Mistral Large (24.11) 언어 Mistral Large (24.11)는 추론 및 함수 호출 기능이 개선된 Mistral Large (24.07) 모델의 다음 버전입니다. 모델 카드
Mistral Nemo 언어 Mistral AI의 가장 비용 효율적인 독점 모델입니다. Mistral Nemo 지연 시간이 짧은 워크로드와 분류, 고객 지원, 텍스트 생성 등 일괄적으로 실행할 수 있는 기본 작업을 사용합니다. 모델 카드
Codestral (25.01) 코드 fill-in-the-middle 및 코드 완성을 비롯한 코드 생성을 위해 설계된 최신 모델입니다. 모델 카드