Google의 퍼스트 파티 모델 목록
다음 표에는 Model Garden에서 사용 가능한 Google의 퍼스트 파티 모델이 나와 있습니다.
모델 이름 | 형식 | 설명 | 빠른 시작 |
---|---|---|---|
Gemini 2.0 Flash | 언어, 오디오, 비전 | 모든 일상적인 작업을 위한 워크호스 모델로, 향상된 성능을 제공하며 실시간 Live API를 지원합니다. | 모델 카드 |
Gemini 2.0 Flash-Lite (미리보기) | 언어, 오디오, 비전 | 가장 빠르고 비용 효율적인 Flash 모델입니다. 동일한 가격과 속도로 1.5보다 우수한 품질을 제공합니다. | 모델 카드 |
Gemini 2.0 Pro (실험용) | 언어, 오디오, 비전 | 코딩 및 실질적인 지식에 관한 Google의 가장 강력한 모델로 2백만 개의 컨텍스트 윈도우가 있습니다. | 모델 카드 |
Gemini 1.5 Flash | 언어, 오디오, 비전 | 가장 빠르고 비용 효율적인 Gemini 멀티모달 모델입니다. 대용량 작업과 지연 시간에 민감한 저렴한 애플리케이션을 위해 설계되었습니다. Gemini 1.5 Flash는 반응성이 뛰어나므로 채팅 어시스턴트와 주문형 콘텐츠 생성 애플리케이션을 만드는 데 적합합니다. | 모델 카드 |
Gemini 1.5 Pro | 언어, 오디오, 비전 | 텍스트 또는 코드 응답에 대한 텍스트 또는 채팅 프롬프트에서 이미지, 오디오, 동영상, PDF 파일 추가를 지원하는 멀티모달 모델입니다. | 모델 카드 |
Gemini 1.0 Pro | 언어 | 자연어 태스크, 멀티턴 텍스트 및 코드 채팅, 코드 생성을 처리하도록 설계되었습니다. | 모델 카드 |
Gemini 1.0 Pro Vision | 언어, 비전 | 텍스트 또는 코드 응답에 대한 텍스트 또는 채팅 프롬프트에서 이미지, 동영상 및 PDF 파일 추가를 지원하는 멀티모달 모델입니다. | 모델 카드 |
텍스트용 PaLM 2 | 언어 | 자연어 안내를 따르도록 미세 조정되며 다양한 언어 태스크에 적합합니다. | 모델 카드 |
채팅용 PaLM 2 | 언어 | 자연스러운 대화를 진행하도록 미세 조정되었습니다. 이 모델을 사용하여 자체 챗봇 애플리케이션을 빌드하고 맞춤설정합니다. | 모델 카드 |
코드 완성용 Codey | 언어 | 코드 프롬프트를 기반으로 코드를 생성합니다. 코드 제안 및 코드 버그 최소화에 적합합니다. | 모델 카드 |
코드 생성을 위한 Codey | 언어 | 자연어 입력을 기반으로 코드를 생성합니다. 함수, 클래스, 단위 테스트 등을 작성하는 데 적합합니다. | 모델 카드 |
Code Chat용 Codey | 언어 | 자연스러운 대화를 통해 코드 관련 지원을 받으세요. API, 지원되는 언어의 문법 등에 대한 질문에 적합합니다. | 모델 카드 |
텍스트용 임베딩 | 언어 | 텍스트 데이터를 머신러닝 알고리즘, 특히 대규모 모델에서 처리할 수 있는 숫자 벡터로 변환합니다. | 모델 카드 |
이미지 생성용 Imagen | Vision | 텍스트 프롬프트를 사용하여 스튜디오급 이미지를 대규모로 만듭니다. 이 모델을 사용하여 이미지를 확대할 수도 있습니다. | 모델 카드 |
수정 및 맞춤설정을 위한 Imagen | Vision | 샘플이 적은 학습을 수정하거나 사용하여 기본 이미지와 텍스트 프롬프트 또는 참조 이미지와 텍스트 프롬프트를 사용하여 스튜디오급 이미지를 대규모로 만듭니다. | 모델 카드 |
Vertex 이미지 분할 (미리보기) | Vision | 텍스트 프롬프트를 사용하거나 낙서를 그려 이미지를 분할합니다. 이미지 분할을 사용하면 객체를 감지하거나, 이미지의 배경을 삭제하거나, 이미지의 전경을 분할할 수 있습니다. | 모델 카드 |
자막 및 VQA용 Imagen | 언어 | 주어진 이미지와 관련된 설명을 생성합니다. | 모델 카드 |
멀티모달용 임베딩 | Vision | 이미지를 기반으로 벡터를 생성하며, 이 벡터는 이미지 분류 및 이미지 검색과 같은 다운스트림 작업에 사용할 수 있습니다. | 모델 카드 |
Chirp | 음성 | 20억 개 이상의 매개변수가 있고 단일 모델에서 100개가 넘는 언어로 텍스트 변환할 수 있는 범용 음성 모델 버전입니다. | 모델 카드 |
Model Garden에서 오픈소스 미세 조정 또는 서빙 레시피가 있는 모델 목록
다음 표에는 Model Garden에서 오픈소스 조정 또는 서빙 레시피를 지원하는 OSS 모델이 나와 있습니다.
모델 이름 | 형식 | 설명 | 빠른 시작 |
---|---|---|---|
Llama 3.3 | 언어 | Meta Llama 3.3 다국어 대규모 언어 모델 (LLM)은 700억 개 (텍스트 입력/텍스트 출력)로 선행 학습되고 명령이 조정된 생성형 모델입니다. | 모델 카드 |
플럭스 | Vision | 텍스트 설명에서 고품질 이미지를 생성하는 120억 개 매개변수의 수정된 흐름 변환기 모델입니다. | 모델 카드 |
Prompt Guard | 언어 | 탈옥 기법 및 간접 삽입으로부터 LLM 입력을 가드레일로 보호합니다. | 모델 카드 |
Llama 3.2 | 언어 | 10억 개 및 30억 개 크기로 선행 학습되고 명령이 조정된 생성형 모델인 다국어 대규모 언어 모델 모음입니다. | 모델 카드 |
Llama 3.2-Vision | 언어, 비전 | 110억 개 및 900억 개 크기로 선행 학습되고 명령이 조정된 이미지 추론 생성형 모델인 멀티모달 대규모 언어 모델 모음입니다. 이러한 모델은 시각적 인식, 이미지 추론, 캡션, 이미지에 관한 일반적인 질문에 답변하는 데 최적화되어 있습니다. | 모델 카드 |
Llama Guard 3 | 언어 | 콘텐츠 안전성 분류를 위해 미세 조정된 사전 학습된 Llama-3.1-8B 모델입니다. | 모델 카드 |
Qwen2 | 언어 | 기반 대규모 언어 모델 시리즈인 Qwen2를 배포합니다. | Colab 모델 카드 |
Phi-3 | 언어 | 기반 대규모 언어 모델 시리즈인 Phi-3를 배포합니다. | Colab 모델 카드 |
E5 | 언어 | 텍스트 임베딩 모델 시리즈인 E5를 배포합니다. | Colab 모델 카드 |
인스턴트 ID | 언어, 비전 | ID를 보존하는 텍스트-이미지 생성 모델인 인스턴트 ID를 배포합니다. | Colab 모델 카드 |
Llama 3 | 언어 | Vertex AI에서 Meta의 Llama 3 모델(8B, 70B, 405B)을 살펴보고 빌드하세요. | 모델 카드 |
Gemma 2 | 언어 | Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드된 개방형 가중치 모델(9B, 27B)입니다. | 모델 카드 |
Gemma | 언어 | Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드된 개방형 가중치 모델(2B, 7B)입니다. | 모델 카드 |
CodeGemma | 언어 | 코드 생성 및 코드 완성을 위해 설계된 개방형 가중치 모델(2B, 7B)로, Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드되었습니다. | 모델 카드 |
PaliGemma | 언어 | 이미지 캡션 작업 및 시각적 질문 및 답변 작업을 위해 설계된 개방형 가중치 3B 모델로, Google의 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술을 기반으로 빌드되었습니다. | 모델 카드 |
Vicuna v1.5 | 언어 | 텍스트 생성을 위해 LLama2에서 미세 조정된 기반 모델인 Vicuna v1.5 시리즈 모델을 배포합니다. | 모델 카드 |
NLLB | 언어 | 다국어 번역을 위한 nllb 시리즈 모델을 배포합니다. | 모델 카드 Colab |
Mistral-7B | 언어 | 텍스트 생성을 위한 기본 모델인 Mitral-7B를 배포합니다. | 모델 카드 |
BioGPT | 언어 | 생체 의학 도메인용 텍스트 생성 모델인 BioGPT를 배포합니다. | 모델 카드 Colab |
BiomedCLIP | 언어, 비전 | 생체 의학 도메인용 멀티 모달 기반 모델인 BiomedCLIP를 배포합니다. | 모델 카드 Colab |
ImageBind | 언어, 비전, 오디오 |
멀티 모달 임베딩을 위한 기본 모델인 ImageBind를 배포합니다. | 모델 카드 Colab |
DITO | 언어, 비전 | 개방형 어휘 객체 감지 태스크를 위한 멀티 모달 기반 모델인 DITO를 미세 조정하고 배포합니다. | 모델 카드 Colab |
OWL-ViT v2 | 언어, 비전 | 개방형 어휘 객체 감지 태스크를 위한 멀티 모달 기반 모델인 OWL-ViT v2를 배포합니다. | 모델 카드 Colab |
FaceStylizer(Mediapipe) | Vision | 사람 얼굴 이미지를 새로운 스타일로 변환하는 생성 파이프라인입니다. | 모델 카드 Colab |
Llama 2 | 언어 | Vertex AI에서 Meta의 Llama 2 기반 모델(7B, 13B, 70B)을 미세 조정하고 배포합니다. | 모델 카드 |
Code Llama | 언어 | Vertex AI에 Meta의 Code Llama 기반 모델(7B, 13B, 34B)을 배포합니다. | 모델 카드 |
Falcon-instruct | 언어 | PEFT를 사용하여 Falcon-instruct 모델(7B, 40B)을 미세 조정하고 배포합니다. | Colab 모델 카드 |
OpenLLaMA | 언어 | PEFT를 사용하여 OpenLLaMA 모델(3B, 7B, 13B)을 미세 조정하고 배포합니다. | Colab 모델 카드 |
T5-FLAN | 언어 | T5-FLAN(base, small, large)을 미세 조정하고 배포합니다. | 모델 카드(미세 조정 파이프라인 포함) |
BERT | 언어 | PEFT를 사용하여 BERT를 미세 조정하고 배포합니다. | Colab 모델 카드 |
BART-large-cnn | 언어 | 양방향(BERT 유사) 인코더와 자동 회귀(GPT 유사) 디코더를 사용하는 변환기 인코더-인코더(seq2seq) 모델인 BART를 배포합니다. | Colab 모델 카드 |
RoBERTa-large | 언어 | PEFT를 사용하여 RoBERTa-large를 미세 조정하고 배포합니다. | Colab 모델 카드 |
XLM-RoBERTa-large | 언어 | PEFT를 사용하여 XLM-RoBERTa-large(RoBERTa의 다국어 버전)를 미세 조정하고 배포합니다. | Colab 모델 카드 |
Dolly-v2-7b | 언어 | 매개변수가 69억 개 있는 안내형 대규모 언어 모델인 Dolly-v2-7b를 배포합니다. | Colab 모델 카드 |
Stable Diffusion XL v1.0 | 언어, 비전 | 텍스트-이미지 생성을 지원하는 Stable Diffusion XL v1.0을 배포합니다. | Colab 모델 카드 |
Stable Diffusion XL Lightning | 언어, 비전 | 텍스트-이미지 생성 모델인 Stable Diffusion XL Lightning을 배포합니다. | Colab 모델 카드 |
Stable Diffusion v2.1 | 언어, 비전 | Dreambooth를 사용하여 Stable Diffusion v2.1(텍스트-이미지 생성 지원)을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Stable Diffusion 4x upscaler | 언어, 비전 | 텍스트 조건부 이미지 초해상도를 지원하는 Stable Diffusion 4x upscaler를 배포합니다. | Colab 모델 카드 |
InstructPix2Pix | 언어, 비전 | 텍스트 프롬프트를 사용하여 이미지 수정을 지원하는 InstructPix2Pix를 배포합니다. | Colab 모델 카드 |
Stable Diffusion Inpainting | 언어, 비전 | 텍스트 프롬프트를 사용하여 마스킹된 이미지 인페인팅을 지원하는 Stable Diffusion Inpainting을 미세 조정하고 배포합니다. | Colab 모델 카드 |
SAM | 언어, 비전 | 제로샷 이미지 분할을 지원하는 Segment Anything을 배포합니다. | Colab 모델 카드 |
텍스트-동영상(ModelScope) | 언어, 비전 | 텍스트-동영상 생성을 지원하는 ModelScope Text-to-Video를 배포합니다. | Colab 모델 카드 |
Pic2Word 구성 이미지 가져오기 | 언어, 비전 | 멀티모달 구성 이미지 가져오기를 지원하는 Pic2Word를 배포합니다. | Colab 모델 카드 |
BLIP2 | 언어, 비전 | 이미지 캡션 및 비전적 질문-답변을 지원하는 BLIP2를 배포합니다. | Colab 모델 카드 |
Open-CLIP | 언어, 비전 | 제로샷 분류를 지원하는 Open-CLIP를 미세 조정하고 배포합니다. | Colab 모델 카드 |
F-VLM | 언어, 비전 | 개방형 어휘 이미지 객체 감지를 지원하는 F-VLM을 배포합니다. | Colab 모델 카드 |
tfhub/EfficientNetV2 | Vision | EfficientNetV2 이미지 분류 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
EfficientNetV2(TIMM) | Vision | EfficientNetV2 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Proprietary/EfficientNetV2 | Vision | EfficientNetV2 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. | Colab 모델 카드 |
EfficientNetLite(MediaPipe) | Vision | MediaPipe 모델 제조업체를 통해 EfficientNetLite 이미지 분류 모델을 미세 조정합니다. | Colab 모델 카드 |
tfvision/vit | Vision | ViT 이미지 분류 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
ViT(TIMM) | Vision | ViT 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Proprietary/ViT | Vision | ViT 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. | Colab 모델 카드 |
Proprietary/MaxViT | Vision | MaxViT 하이브리드(CNN + ViT) 이미지 분류 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. | Colab 모델 카드 |
ViT(JAX) | Vision | ViT 이미지 분류 모델의 JAX 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
tfvision/SpineNet | Vision | SpineNet 객체 감지 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Proprietary/Spinenet | Vision | SpineNet 객체 감지 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. | Colab 모델 카드 |
tfvision/YOLO | Vision | YOLO 1단계 객체 감지 모델의 TensorFlow Vision 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Proprietary/YOLO | Vision | YOLO 1단계 객체 감지 모델의 Google 독점 체크포인트를 미세 조정하고 배포합니다. | Colab 모델 카드 |
YOLOv8(Keras) | Vision | 객체 감지를 위해 YOLOv8 모델의 Keras 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
tfvision/YOLOv7 | Vision | 객체 감지를 위해 YOLOv7 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
ByteTrack 동영상 객체 추적 | Vision | ByteTrack 추적기를 사용하여 동영상 객체 추적에 대한 일괄 예측을 실행합니다. | Colab 모델 카드 |
ResNeSt(TIMM) | Vision | ResNeSt 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
ConvNeXt(TIMM) | Vision | Vision Transformer의 설계에서 영감을 얻은 이미지 분류의 순수 합성곱 모델인 ConvNeXt를 미세 조정하고 배포합니다. | Colab 모델 카드 |
CspNet(TIMM) | Vision | CSPNet(교차 단계 부분 네트워크) 이미지 분류 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Inception(TIMM) | Vision | Inception 이미지 분류 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
DeepLabv3+(체크포인트 포함) | Vision | 시맨틱 이미지 분할을 위해 DeepLab-v3 Plus 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Faster R-CNN(Detectron2) | Vision | 이미지 객체 감지를 위해 Faster R-CNN 모델의 Detectron2 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
RetinaNet(Detectron2) | Vision | 이미지 객체 감지를 위해 RetinaNet 모델의 Detectron2 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Mask R-CNN(Detectron2) | Vision | 이미지 객체 감지 및 세분화를 위해 Mask R-CNN 모델의 Detectron2 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
ControlNet | Vision | ControlNet 텍스트-이미지 생성 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
MobileNet(TIMM) | Vision | MobileNet 이미지 분류 모델의 PyTorch 구현을 미세 조정하고 배포합니다. | Colab 모델 카드 |
MobileNetV2(MediaPipe) Image Classification | Vision | MediaPipe 모델 제조업체를 사용하여 MobileNetV2 이미지 분류 모델을 미세 조정합니다. | Colab 모델 카드 |
MobileNetV2(MediaPipe) 객체 감지 | Vision | MediaPipe 모델 제조업체를 사용하여 MobileNetV2 객체 감지 모델을 미세 조정합니다. | Colab 모델 카드 |
MobileNet-MultiHW-AVG(MediaPipe) | Vision | MediaPipe 모델 제조업체를 사용하여 MobileNet-MultiHW-AVG 객체 감지 모델을 미세 조정합니다. | Colab 모델 카드 |
DeiT | Vision | 이미지 분류를 위해 DeiT(데이터 효율적인 이미지 변환기) 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
BEiT | Vision | 이미지 분류를 위해 BEiT(이미지 변환기의 양방향 인코더 표현) 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
손 동작 인식(MediaPipe) | Vision | MediaPipe를 사용하여 기기에서 손 동작 인식 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
평균 단어 임베딩 분류기(MediaPipe) | Vision | MediaPipe를 사용하여 기기에서 평균 단어 임베딩 분류 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
MobileBERT Classifier(MediaPipe) | Vision | MediaPipe를 사용하여 기기에서 MobileBERT 분류기 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
MoViNet 동영상 클립 분류 | 동영상 | MoViNet 동영상 클립 분류 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
MoViNet 동영상 동작 인식 | 동영상 | 동작 인식 추론을 위해 MoViNet 모델을 미세 조정하고 배포합니다. | Colab 모델 카드 |
Stable Diffusion XL LCM | Vision | LCM(Latent Consistency Model)을 사용하는 이 모델을 배포하여 더 적은 단계로 빠른 고품질 이미지를 생성함으로써 잠재 확산 모델(Latent Diffusion Models)에서 텍스트-이미지 변환을 향상합니다. | Colab 모델 카드 |
LLaVA 1.5 | 비전, 언어 | LLaVA 1.5 모델 배포 | Colab 모델 카드 |
Pytorch-ZipNeRF | 비전, 동영상 | 2D 이미지에서 효율적이고 정확한 3D 재구성을 위해 설계된 Pytorch 프레임워크에서 ZipNeRF 알고리즘을 최첨단으로 구현한 Pytorch-ZipNeRF 모델을 학습시킵니다. | Colab 모델 카드 |
Mixtral | 언어 | Mixtral AI가 개발한 전문가 망(MoE) 대규모 언어 모델(LLM)인 Mixtral 모델을 배포합니다. | 모델 카드 |
Llama 2(양자화) | 언어 | Meta의 Llama 2 모델의 양자화 버전을 미세 조정하고 배포합니다. | Colab 모델 카드 |
LaMa(Large Mask Inpainting) | Vision | 수용성이 높은 현장 지각 손실과 대규모 학습 마스크로 해상도가 높은 이미지 인페인팅을 지원하는 고속 Fourier 컨볼루션(FFC)을 사용하는 LaMa를 배포합니다. | Colab 모델 카드 |
AutoGluon | 테이블 형식 | AutoGluon을 사용하면 테이블 형식 데이터에 대해 정확성이 높은 머신러닝 및 딥 러닝 모델을 학습시키고 배포할 수 있습니다. | Colab 모델 카드 |
MaMMUT | 언어, 비전 | 시각적 질의 응답, 이미지-텍스트 검색, 텍스트-이미지 검색, 멀티모달 임베딩 생성과 같은 멀티모달 태스크를 위한 비전 인코더 및 텍스트 디코더 아키텍처입니다. | Colab 모델 카드 |
속삭임(대) | 음성 | 자동 음성 인식 (ASR)을 위한 OpenAI의 최신 모델인 Whisper Large를 배포합니다. | Colab 모델 카드 |
Model Garden에서 사용할 수 있는 파트너 모델 목록
일부 파트너 모델은 Vertex AI Model Garden(서비스형 모델이라고도 함)에서 관리형 API로 제공됩니다. 다음 표에는 Model Garden에서 사용할 수 있는 Google 파트너의 모델이 나와 있습니다.
모델 이름 | 형식 | 설명 | 빠른 시작 |
---|---|---|---|
Anthropic의 Claude 3.5 Sonnet v2 | 언어 | 업그레이드된 Claude 3.5 Sonnet은 실제 소프트웨어 엔지니어링 작업 및 에이전트 기능을 위한 최첨단 모델입니다. Claude 3.5 Sonnet은 이전 모델과 동일한 가격과 속도로 이렇게 진보된 기능을 제공합니다. | 모델 카드 |
Anthropic의 Claude 3.5 Haiku | 언어 | Anthropic의 차세대 모델인 Claude 3.5 Haiku는 가장 빠르고 비용 효율적인 모델로, 속도와 경제성이 중요한 사용 사례에 적합합니다. | 모델 카드 |
Anthropic의 Claude 3 Opus | 언어 | 매우 복잡한 작업에서 최상위 수준의 성능을 발휘하는 강력한 AI 모델입니다. 탁월한 유창성과 인간과 유사한 이해력을 바탕으로 개방형 프롬프트와 불확실한 시나리오를 탐색할 수 있습니다. | 모델 카드 |
Anthropic의 Claude 3 Haiku | 언어 | Anthropic의 가장 빠른 비전 및 텍스트 모델로, 인간의 상호작용을 모방하는 원활한 AI 환경을 위해 기본 쿼리에 거의 즉각적으로 응답할 수 있습니다. | 모델 카드 |
Anthropic의 Claude 3.5 Sonnet | 언어 | Claude 3.5 Sonnet은 Anthropic의 중간 등급 모델인 Claude 3 Sonnet의 속도와 비용으로 광범위한 Anthropic 평가에서 Anthropic의 Claude 3 Opus를 능가합니다. | 모델 카드 |
Jamba 1.5 Large(미리보기) | 언어 | AI21 Labs의 Jamba 1.5 Large는 우수한 품질의 응답, 높은 처리량, 동급 다른 모델에 비해 경쟁력 있는 가격을 제공하도록 설계되었습니다. | 모델 카드 |
Jamba 1.5 Mini (미리보기) | 언어 | AI21 Labs의 Jamba 1.5 Mini는 품질, 처리량, 저렴한 비용 전반에 걸쳐 균형이 잘 잡혀 있습니다. | 모델 카드 |
Llama 3.3 (미리보기) | 언어 | Llama 3.3은 텍스트 전용 70B 명령어 조정 모델로, 텍스트 전용 애플리케이션에 사용될 때 Llama 3.1 70B 및 Llama 3.2 90B에 비해 향상된 성능을 제공합니다. 또한 일부 애플리케이션의 경우 Llama 3.3 70B가 Llama 3.1 405B의 성능에 근접합니다. | 모델 카드 |
Llama 3.2(미리보기) | 언어, 비전 | 차트 및 그래프 분석, 이미지 캡션과 같은 이미지 추론을 지원할 수 있는 중형 90B 멀티모달 모델입니다. | 모델 카드 |
Llama 3.1 (GA 및 미리보기) | 언어 |
다국어 대화 사용 사례에 최적화된 다국어 LLM 모음으로, 일반적인 업계 벤치마크에서 사용 가능한 여러 오픈소스 및 비공개 채팅 모델보다 성능이 우수합니다. Llama 3.1 405B는 정식 버전 (GA)으로 제공되며 100만 개 토큰당 1달러의 가격이 책정됩니다. 가격 책정을 참조하세요. Llama 3.1 8B 및 Llama 3.1 70B는 무료 미리보기 버전으로 제공됩니다. |
모델 카드 |
Mistral Large (24.11) | 언어 | Mistral Large (24.11)는 추론 및 함수 호출 기능이 개선된 Mistral Large (24.07) 모델의 다음 버전입니다. | 모델 카드 |
Mistral Nemo | 언어 | Mistral AI의 가장 비용 효율적인 독점 모델입니다. Mistral Nemo 지연 시간이 짧은 워크로드와 분류, 고객 지원, 텍스트 생성 등 일괄적으로 실행할 수 있는 기본 작업을 사용합니다. | 모델 카드 |
Codestral (25.01) | 코드 | fill-in-the-middle 및 코드 완성을 비롯한 코드 생성을 위해 설계된 최신 모델입니다. | 모델 카드 |