Vertex AI의 생성형 AI 개요

Vertex AI의 생성형 AI를 사용하면 Google의 고급 글로벌 인프라에서 호스팅되는 최첨단 생성형 AI 모델을 기반으로 하는 프로덕션에 즉시 사용 가능한 애플리케이션을 빌드할 수 있습니다.

시작하기


엔터프라이즈 지원

엔터프라이즈 지원

엔터프라이즈 수준의 보안, 데이터 상주, 액세스 투명성, 짧은 지연 시간을 갖춘 생성형 AI 애플리케이션을 대규모로 배포하세요.

최첨단 기능

최첨단 기능

Gemini 1.5 Pro에서 지원하는 2,000,000개의 토큰 컨텍스트 윈도우를 사용하여 애플리케이션의 기능을 확장하세요.

개방형 플랫폼

개방형 플랫폼

Vertex AI를 통해 Anthropic Claude 3.5 Sonnet, Meta Llama 3, Mitral AI Mixtral 8x7B를 비롯한 서드 파티 AI 회사의 100개 이상의 모델에 액세스할 수 있습니다.

핵심 기능

  • 멀티모달 처리

    이미지, 동영상, 오디오, 문서 등 여러 유형의 입력 미디어를 동시에 처리합니다.

  • 임베딩 생성

    검색, 분류, 클러스터링, 이상점 감지와 같은 태스크를 수행하기 위해 임베딩을 생성합니다.

  • 모델 조정

    특정 태스크를 더욱 정밀하고 정확하게 수행하도록 모델을 조정합니다.

  • 함수 호출

    모델을 외부 API에 연결하여 모델의 기능을 확장합니다.

  • 그라운딩

    모델을 외부 데이터 소스에 연결하여 응답에서 할루시네이션을 줄입니다.

  • 이미지 생성

    자연어 텍스트 프롬프트를 사용하여 이미지를 생성하고 수정합니다.


Vertex AI와 Google AI의 차이점

Vertex AI의 Gemini API와 Google AI에서는 둘 다 Gemini 모델 기능을 애플리케이션에 사용할 수 있습니다. 적합한 플랫폼은 다음 표에 설명된 대로 목적에 따라 달라집니다.

API 설계 대상 기능
Vertex AI Gemini API
  • 확장 배포
  • Enterprise
  • 기술 지원
  • 형식 기반 가격 책정
  • 면책 보호
  • Model Garden의 100개 이상의 모델
Google AI Gemini API
  • 실험
  • 프로토타입 제작
  • 사용 편의성
  • 무료 등급
  • 토큰 기반 가격 책정

Google AI에서 Vertex AI로 마이그레이션

Vertex AI SDK를 사용하여 빌드

Vertex AI는 다음 언어로 SDK를 제공합니다.

Python

from vertexai.generative_models import GenerativeModel
model = GenerativeModel(model_name="gemini-1.5-flash")
response = model.generate_content([Part.from_uri(IMAGE_URI, mime_type="image/jpeg"),"What is this?"])

Node.js

const vertexAI = new VertexAI({project: projectId, location: location});
const generativeVisionModel = vertexAI.getGenerativeModel({ model: "gemini-1.5-flash"});

const result = await model.generateContent([
  "What is this?",
  {inlineData: {data: imgDataInBase64, mimeType: 'image/png'}}
]);

자바

public static void main(String[] args) throws Exception {
  try (VertexAI vertexAi = new VertexAI(PROJECT_ID, LOCATION); ) {
    GenerativeModel model = new GenerativeModel("gemini-1.5-flash", vertexAI);
  List<Content> contents = new ArrayList<>();
  contents.add(ContentMaker
                .fromMultiModalData(
                    "What is this?",
                    PartMaker.fromMimeTypeAndData("image/jpeg", IMAGE_URI)));
  GenerateContentResponse response = model.generateContent(contents);
  }
}

Go

model := client.GenerativeModel("gemini-1.5-flash", "us-central1")
img := genai.ImageData("jpeg", image_bytes)
prompt := genai.Text("What is this?")
resp, err := model.GenerateContent(ctx, img, prompt)

C#

var predictionServiceClient = new PredictionServiceClientBuilder {
  Endpoint = $"{location}-aiplatform.googleapis.com"
}.Build();

var generateContentRequest = new GenerateContentRequest {
  Model = $"projects/{projectId}/locations/{location}/publishers/google/models/gemini-1.5-flash",
  Contents = {
    new Content {
      Role = "USER",
      Parts = {
        new Part {Text = "What's in this?"},
        new Part {FileData = new() {MimeType = "image/jpeg", FileUri = fileUri}}
      }
    }
  }
};

GenerateContentResponse response = await predictionServiceClient.GenerateContentAsync(generateContentRequest);

시작하기

시작할 수 있는 다양한 방법