Anthropic의 Claude 모델 사용

Vertex AI 기반 Anthropic Claude 모델은 완전 관리형 서버리스 모델을 API로 제공합니다. Vertex AI에서 Claude 모델을 사용하려면 요청을 Vertex AI API 엔드포인트로 직접 보냅니다. Anthropic Claude 모델은 관리형 API를 사용하므로 인프라를 프로비저닝하거나 관리할 필요가 없습니다.

Claude 응답을 스트리밍하여 최종 사용자의 지연 시간 인식을 줄일 수 있습니다. 스트리밍된 응답은 서버 전송 이벤트(SSE)를 사용하여 응답을 점진적으로 스트리밍합니다.

Claude 모델을 사용할 때는 사용한 만큼 비용을 지불하고(사용한 만큼만 지불) 프로비저닝 처리량을 사용할 때는 고정 요금을 지불합니다. 사용한 만큼만 지불 가격 책정은 Vertex AI 가격 책정 페이지의 Anthropic Claude 모델을 참조하세요.

사용 가능한 Anthropic Claude 모델

Vertex AI에 사용할 수 있는 Anthropic의 모델은 다음과 같습니다. Anthropic Claude 모델에 액세스하려면 Model Garden 모델 카드로 이동합니다.

Claude 3.5 Sonnet

Claude 3.5 Sonnet은 Anthropic의 가장 강력한 AI 모델이며 중간 등급 모델인 Claude 3 Sonnet의 속도와 비용을 유지합니다. Claude 3.5 Sonnet은 생성형 AI가 지닌 가능성을 보여줍니다. Claude 3.5 Sonnet은 다음과 같은 사용 사례에 최적화되어 있습니다.

  • 정교한 추론 및 문제 해결 기능을 사용하여 코드 작성, 수정, 실행 등의 코딩.

  • 사용자 컨텍스트를 이해하고 여러 단계로 이루어진 워크플로를 조정하여 고객 지원팀의 복잡한 문의 처리

  • 비정형 데이터를 탐색하고 여러 도구를 활용하여 유용한 정보를 생성하는 데이터 과학 및 분석.

  • 시각적 이해가 필요한 차트 및 그래프 해석과 같은 시각적 처리.

  • 사람과 대화를 나누는 것 같은 자연스러운 어조로 콘텐츠 작성.

Claude 3.5 Sonnet 모델 카드로 이동

Claude 3 Opus

Anthropic Claude 3 Opus는 매우 복잡한 작업에서 뛰어난 성능을 발휘하는 Anthropic의 두 번째로 강력한 AI 모델입니다. 탁월한 유창성과 인간과 유사한 이해력을 바탕으로 개방형 프롬프트와 불확실한 시나리오를 탐색할 수 있습니다. Claude 3 Opus는 다음과 같은 사용 사례에 최적화되어 있습니다.

  • 대화형 코딩 및 계획, API 및 데이터베이스 간에 복잡한 작업 실행과 같은 작업 자동화.

  • 연구 검토, 브레인스토밍, 가설 생성, 제품 테스트와 같은 연구 및 개발 작업.

  • 차트 및 그래프의 고급 분석, 재무 및 시장 동향, 예측과 같은 전략 작업.

  • 텍스트 출력을 반환하는 이미지 처리와 같은 Vision 작업. 또한 차트, 그래프, 기술 다이어그램, 보고서, 기타 시각적 콘텐츠에 대한 분석도 있음.

Claude 3 Opus 모델 카드로 이동

Claude 3 Haiku

Anthropic Claude 3 Haiku는 간단한 쿼리에 거의 즉각적으로 응답할 수 있는 Anthropic에서 가장 빠르고 컴팩트한 비전 및 텍스트 모델로, 인간의 상호작용을 모방하는 원활한 AI 경험을 지원합니다. Claude 3 Haiku는 다음과 같은 사용 사례에 최적화되어 있습니다.

  • 실시간 고객 상호작용 및 번역.

  • 의심스러운 행동이나 고객 요청을 파악하기 위한 콘텐츠 검토.

  • 인벤토리 관리, 비정형 데이터에서 지식 추출과 같은 비용 절감 작업.

  • 텍스트 출력을 반환하는 이미지 처리, 차트, 그래프, 기술 다이어그램, 보고서, 기타 시각적 콘텐츠 분석과 같은 Vision 작업.

Claude 3 Haiku 모델 카드로 이동

Claude 3 Sonnet

Anthropic Claude 3 Sonnet은 Anthropic의 신뢰할 수 있는 기술과 속도의 조합으로, 다양한 사용 사례에서 확장된 AI 배포에 안정적으로 사용할 수 있도록 설계되었습니다. Claude 3 Sonnet은 다음과 같은 사용 사례에 최적화되어 있습니다.

  • 검색 증강 생성(RAG) 및 검색 검색을 포함한 데이터 처리.

  • 제품 추천, 예측, 타겟팅된 마케팅과 같은 영업 작업.

  • 이미지의 코드 생성, 품질 관리, 광학 문자 인식(OCR)과 같은 시간 절약 작업.

  • 텍스트 출력을 반환하는 이미지 처리와 같은 Vision 작업. 또한 차트, 그래프, 기술 다이어그램, 보고서, 기타 시각적 콘텐츠에 대한 분석도 있음.

Claude 3 Sonnet 모델 카드로 이동

Claude 모델 사용

Anthropic SDK 또는 curl 명령어를 사용하여 다음 모델 이름으로 Vertex AI 엔드포인트에 요청을 보낼 수 있습니다.

  • Claude 3.5 Sonnet의 경우 claude-3-5-sonnet@20240620 사용
  • Claude 3 Opus의 경우 claude-3-opus@20240229 사용
  • Claude 3 Haiku의 경우 claude-3-haiku@20240307 사용
  • Claude 3 Sonnet의 경우 claude-3-sonnet@20240229 사용

모델 버전 간의 차이로 인해 @ 기호(예: claude-3-5-sonnet@20240620 또는 claude-3-haiku@20240307)로 시작하는 서픽스가 포함된 Anthropic Claude 모델 버전을 사용하는 것이 좋습니다. 모델 버전을 지정하지 않으면 항상 최신 버전이 사용되어 모델 버전이 변경될 때 실수로 워크플로에 의도치 않은 영향을 미칠 수 있습니다.

시작하기 전에

Vertex AI에서 Anthropic Claude 모델을 사용하려면 다음 단계를 실행해야 합니다. Vertex AI를 사용하려면 Vertex AI API(aiplatform.googleapis.com)를 사용 설정해야 합니다. Vertex AI API가 사용 설정된 기존 프로젝트가 이미 있는 경우 새 프로젝트를 만드는 대신 해당 프로젝트를 사용할 수 있습니다.

파트너 모델을 사용 설정하고 사용하는 데 필요한 권한이 있는지 확인합니다. 자세한 내용은 필수 권한 부여를 참조하세요.

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the Vertex AI API.

    Enable the API

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the Vertex AI API.

    Enable the API

  8. 다음 Model Garden 모델 카드 중 하나로 이동한 다음 사용 설정을 클릭합니다.

Anthropic SDK 사용

Anthropic Claude SDK를 사용하여 Anthropic Claude 모델에 API를 요청할 수 있습니다. 자세한 내용은 다음을 참조하세요.

Anthropic Vertex SDK를 사용하여 Claude 모델에 스트리밍 호출 수행

다음 코드 샘플에서는 Anthropic Vertex SDK를 사용하여 Anthropic Claude 모델에 스트리밍 호출을 수행합니다.

Python

Vertex AI SDK for Python을 설치하거나 업데이트하는 방법은 Vertex AI SDK for Python 설치를 참조하세요. 자세한 내용은 Python API 참고 문서를 확인하세요.

#     # TODO(developer): Vertex AI SDK - uncomment below & run
#     # pip3 install --upgrade --user google-cloud-aiplatform
#     # gcloud auth application-default login
#     # pip3 install -U 'anthropic[vertex]'
#
#     # TODO(developer): Update and un-comment below line
#     # PROJECT_ID = "your-project-id"
#
#     from anthropic import AnthropicVertex
#
#     client = AnthropicVertex(project_id=PROJECT_ID, region="us-east5")
#     result = []
#
#     with client.messages.stream(
#         model="claude-3-5-sonnet@20240620",
#         max_tokens=1024,
#         messages=[
#             {
#                 "role": "user",
#                 "content": "Send me a recipe for banana bread.",
#             }
#         ],
#     ) as stream:
#         for text in stream.text_stream:
#             print(text, end="", flush=True)
#             result.append(text)
#
#     # Example response:
#     # Here's a simple recipe for delicious banana bread:
#     # Ingredients:
#     # - 2-3 ripe bananas, mashed
#     # - 1/3 cup melted butter
#     # ...
#     # ...
#     # 8. Bake for 50-60 minutes, or until a toothpick inserted into the center comes out clean.
#     # 9. Let cool in the pan for a few minutes, then remove and cool completely on a wire rack.
#

Anthropic Vertex SDK를 사용하여 Claude 모델에 단항 호출 수행

다음 코드 샘플에서는 Anthropic Vertex SDK를 사용하여 Anthropic Claude 모델에 단항 호출을 수행합니다.

Python

Vertex AI SDK for Python을 설치하거나 업데이트하는 방법은 Vertex AI SDK for Python 설치를 참조하세요. 자세한 내용은 Python API 참고 문서를 확인하세요.

# TODO(developer): Vertex AI SDK - uncomment below & run
# pip3 install --upgrade --user google-cloud-aiplatform
# gcloud auth application-default login
# pip3 install -U 'anthropic[vertex]'

# TODO(developer): Update and un-comment below line
# PROJECT_ID = "your-project-id"

from anthropic import AnthropicVertex

client = AnthropicVertex(project_id=PROJECT_ID, region="us-east5")
message = client.messages.create(
    model="claude-3-5-sonnet@20240620",
    max_tokens=1024,
    messages=[
        {
            "role": "user",
            "content": "Send me a recipe for banana bread.",
        }
    ],
)
print(message.model_dump_json(indent=2))
# Example response:
# {
#   "id": "msg_vrtx_0162rhgehxa9rvJM5BSVLZ9j",
#   "content": [
#     {
#       "text": "Here's a simple recipe for delicious banana bread:\n\nIngredients:\n- 2-3 ripe bananas...
#   ...

curl 명령어 사용

curl 명령어를 사용하여 Vertex AI 엔드포인트에 요청할 수 있습니다. curl 명령어는 지원되는 Anthropic Claude 모델을 지정합니다.

모델 버전 간의 차이로 인해 @ 기호(예: claude-3-5-sonnet@20240620 또는 claude-3-haiku@20240307)로 시작하는 서픽스가 포함된 Anthropic Claude 모델 버전을 사용하는 것이 좋습니다. 모델 버전을 지정하지 않으면 항상 최신 버전이 사용되어 모델 버전이 변경될 때 실수로 워크플로에 의도치 않은 영향을 미칠 수 있습니다.

다음 주제에서는 curl 명령어를 만드는 방법과 샘플 curl 명령어에 대해 소개합니다.

REST

Vertex AI API를 사용하여 텍스트 프롬프트를 테스트하려면 POST 요청을 게시자 모델 엔드포인트로 전송합니다.

요청 데이터를 사용하기 전에 다음을 바꿉니다.

  • LOCATION: Anthropic Claude 모델을 지원하는 리전.
    Claude 3.5 Sonnet은 다음 리전에서 사용할 수 있습니다.
    • us-east5 (Ohio)
    • asia-southeast1 (Singapore)
    • europe-west1 (Belgium)
    Claude 3 Opus는 다음 리전에서 사용할 수 있습니다.
    • us-east5 (Ohio)
    Claude 3 Haiku는 다음 리전에서 사용할 수 있습니다.
    • us-east5 (Ohio)
    • asia-southeast1 (Singapore)
    • europe-west1 (Belgium)
    Claude 3 Sonnet은 다음 리전에서 사용할 수 있습니다.
    • us-east5 (Ohio)
  • MODEL: 사용할 모델 이름.
  • ROLE: 메시지와 연결된 역할. user 또는 assistant를 지정할 수 있습니다. 첫 번째 메시지는 user 역할을 사용해야 합니다. Claude 모델이 userassistant의 턴을 번갈아가며 작동합니다. 최종 메시지에서 assistant 역할을 사용하는 경우 이 메시지의 콘텐츠에서 곧바로 응답 콘텐츠가 계속됩니다. 이를 사용하여 모델 응답의 일부를 제한할 수 있습니다.
  • STREAM: 응답 스트리밍 여부를 지정하는 불리언. 응답을 스트리밍하여 최종 사용자 지연 시간 인식을 줄입니다. 응답을 스트리밍하려면 true로 설정하고 응답을 한 번에 반환하려면 false로 설정합니다.
  • CONTENT: user 또는 assistant 메시지의 콘텐츠(예: 텍스트)
  • MAX_OUTPUT_TOKENS: 응답에서 생성될 수 있는 토큰의 최대 개수. 토큰은 약 3.5자(영문 기준)입니다. 토큰 100개는 단어 약 60~80개에 해당합니다.

    응답이 짧을수록 낮은 값을 지정하고 잠재적으로 응답이 길면 높은 값을 지정합니다.

  • TOP_P: (선택사항) Top-P는 모델이 출력용 토큰을 선택하는 방식을 변경합니다. 토큰은 확률의 합이 Top-P 값과 같아질 때까지 확률이 가장 높은 것부터(Top-K 참조) 가장 낮은 것까지 선택됩니다. 예를 들어 토큰 A, B, C의 확률이 0.3, 0.2, 0.1이고 Top-P 값이 0.5이면 모델이 강도를 사용해서 다음 토큰으로 A 또는 B를 선택하고 C는 후보에서 제외합니다.

    임의성이 낮은 응답에 낮은 값을 지정하고 임의성이 높은 응답에 높은 값을 지정합니다.

  • TOP_K: (선택사항) Top-K는 모델이 출력용 토큰을 선택하는 방식을 변경합니다. Top-K가 1이면 선택된 토큰이 모델의 어휘에 포함된 모든 토큰 중에서 가장 확률이 높다는 의미입니다(그리디 디코딩이라고도 함). 반면에 Top-K가 3이면 강도를 사용하여 가장 확률이 높은 3개 토큰 중에서 다음 토큰이 선택된다는 의미입니다.

    각 토큰 선택 단계에서 확률이 가장 높은 Top-K 토큰이 샘플링됩니다. 그런 다음 Top-P를 기준으로 토큰을 추가로 필터링하고 강도 샘플링을 사용하여 최종 토큰을 선택합니다.

    임의성이 낮은 응답에 낮은 값을 지정하고 임의성이 높은 응답에 높은 값을 지정합니다.

HTTP 메서드 및 URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/MODEL:streamRawPredict

JSON 요청 본문:

{
  "anthropic_version": "vertex-2023-10-16",
  "messages": [
   {
    "role": "ROLE",
    "content": "CONTENT"
   }],
  "max_tokens": MAX_TOKENS,
  "stream": STREAM
}

요청을 보내려면 다음 옵션 중 하나를 선택합니다.

curl

요청 본문을 request.json 파일에 저장하고 다음 명령어를 실행합니다.

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/MODEL:streamRawPredict"

PowerShell

요청 본문을 request.json 파일에 저장하고 다음 명령어를 실행합니다.

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/MODEL:streamRawPredict" | Select-Object -Expand Content

다음과 비슷한 JSON 응답이 수신됩니다.

curl 명령어 예시

MODEL_ID="MODEL"
LOCATION="us-central1"
PROJECT_ID="PROJECT_ID"

curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${LOCATION}-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/${LOCATION}/publishers/anthropic/models/${MODEL_ID}:streamRawPredict -d \
'{
  "anthropic_version": "vertex-2023-10-16",
  "messages": [{
    "role": "user",
    "content": "Hello!"
  }],
  "max_tokens": 50,
  "stream": true}'

도구 사용(함수 호출)

Anthropic Claude 모델은 모델의 기능을 향상시키기 위한 도구와 함수 호출을 지원합니다. 자세한 내용은 Anthropic 문서의 도구 사용 개요를 참조하세요.

다음 샘플은 Anthropic SDK 또는 curl 명령어를 사용하여 도구를 사용하는 방법을 보여줍니다. 샘플에서는 현재 영업 중인 샌프란시스코 인근 레스토랑을 검색합니다.

Python

Vertex AI SDK for Python을 설치하거나 업데이트하는 방법은 Vertex AI SDK for Python 설치를 참조하세요. 자세한 내용은 Python API 참고 문서를 확인하세요.

# TODO(developer): Vertex AI SDK - uncomment below & run
# pip3 install --upgrade --user google-cloud-aiplatform
# gcloud auth application-default login
# pip3 install -U 'anthropic[vertex]'
from anthropic import AnthropicVertex

# TODO(developer): Update and un-comment below line
# PROJECT_ID = "your-project-id"

client = AnthropicVertex(project_id=PROJECT_ID, region="us-east5")
message = client.messages.create(
    model="claude-3-5-sonnet@20240620",
    max_tokens=1024,
    tools=[
        {
            "name": "text_search_places_api",
            "description": "returns information about a set of places based on a string",
            "input_schema": {
                "type": "object",
                "properties": {
                    "textQuery": {
                        "type": "string",
                        "description": "The text string on which to search",
                    },
                    "priceLevels": {
                        "type": "array",
                        "description": "Price levels to query places, value can be one of [PRICE_LEVEL_INEXPENSIVE, PRICE_LEVEL_MODERATE, PRICE_LEVEL_EXPENSIVE, PRICE_LEVEL_VERY_EXPENSIVE]",
                    },
                    "openNow": {
                        "type": "boolean",
                        "description": "whether those places are open for business.",
                    },
                },
                "required": ["textQuery"],
            },
        }
    ],
    messages=[
        {
            "role": "user",
            "content": "What are some affordable and good Italian restaurants open now in San Francisco??",
        }
    ],
)
print(message.model_dump_json(indent=2))
# Example response:
# {
#   "id": "msg_vrtx_018pk1ykbbxAYhyWUdP1bJoQ",
#   "content": [
#     {
#       "text": "To answer your question about affordable and good Italian restaurants
#       that are currently open in San Francisco....
# ...

REST

요청 데이터를 사용하기 전에 다음을 바꿉니다.

  • LOCATION: Anthropic Claude 모델을 지원하는 리전.
    Claude 3.5 Sonnet은 다음 리전에서 사용할 수 있습니다.
    • us-east5 (Ohio)
    • asia-southeast1 (Singapore)
    • europe-west1 (Belgium)
    Claude 3 Opus는 다음 리전에서 사용할 수 있습니다.
    • us-east5 (Ohio)
    Claude 3 Haiku는 다음 리전에서 사용할 수 있습니다.
    • us-east5 (Ohio)
    • asia-southeast1 (Singapore)
    • europe-west1 (Belgium)
    Claude 3 Sonnet은 다음 리전에서 사용할 수 있습니다.
    • us-east5 (Ohio)
  • MODEL: 사용할 모델 이름.
    • Claude 3 Opus의 경우 claude-3-opus@20240229 사용
    • Claude 3 Sonnet의 경우 claude-3-sonnet@20240229 사용
    • Claude 3 Haiku의 경우 claude-3-haiku@20240307 사용
  • ROLE: 메시지와 연결된 역할. user 또는 assistant를 지정할 수 있습니다. 첫 번째 메시지는 user 역할을 사용해야 합니다. Claude 모델이 userassistant의 턴을 번갈아가며 작동합니다. 최종 메시지에서 assistant 역할을 사용하는 경우 이 메시지의 콘텐츠에서 곧바로 응답 콘텐츠가 계속됩니다. 이를 사용하여 모델 응답의 일부를 제한할 수 있습니다.
  • STREAM: 응답 스트리밍 여부를 지정하는 불리언. 응답을 스트리밍하여 최종 사용자 지연 시간 인식을 줄입니다. 응답을 스트리밍하려면 true로 설정하고 응답을 한 번에 반환하려면 false로 설정합니다.
  • CONTENT: user 또는 assistant 메시지의 콘텐츠(예: 텍스트).
  • MAX_OUTPUT_TOKENS: 응답에서 생성될 수 있는 토큰의 최대 개수. 토큰은 약 3.5자(영문 기준)입니다. 토큰 100개는 단어 약 60~80개에 해당합니다.

    응답이 짧을수록 낮은 값을 지정하고 잠재적으로 응답이 길면 높은 값을 지정합니다.

HTTP 메서드 및 URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/MODEL:rawPredict

JSON 요청 본문:


{
  "anthropic_version": "vertex-2023-10-16",
  "max_tokens": MAX_TOKENS,
  "stream": STREAM,
  "tools": [
    {
      "name": "text_search_places_api",
      "description": "Returns information about a set of places based on a string",
      "input_schema": {
        "type": "object",
        "properties": {
          "textQuery": {
            "type": "string",
            "description": "The text string on which to search"
          },
          "priceLevels": {
            "type": "array",
            "description": "Price levels to query places, value can be one of [PRICE_LEVEL_INEXPENSIVE, PRICE_LEVEL_MODERATE, PRICE_LEVEL_EXPENSIVE, PRICE_LEVEL_VERY_EXPENSIVE]",
          },
          "openNow": {
            "type": "boolean",
            "description": "Describes whether a place is open for business at
            the time of the query."
          },
        },
        "required": ["textQuery"]
      }
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": "What are some affordable and good Italian restaurants that are open now in San Francisco??"
    }
  ]
}

요청을 보내려면 다음 옵션 중 하나를 선택합니다.

curl

요청 본문을 request.json 파일에 저장하고 다음 명령어를 실행합니다.

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/MODEL:rawPredict"

PowerShell

요청 본문을 request.json 파일에 저장하고 다음 명령어를 실행합니다.

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/anthropic/models/MODEL:rawPredict" | Select-Object -Expand Content

다음과 비슷한 JSON 응답이 수신됩니다.

Anthropic Claude 사용 가능한 리전

Claude 3.5 Sonnet은 다음 리전에서 사용할 수 있습니다.
  • us-east5 (Ohio)
  • asia-southeast1 (Singapore)
  • europe-west1 (Belgium)
Claude 3 Opus는 다음 리전에서 사용할 수 있습니다.
  • us-east5 (Ohio)
Claude 3 Haiku는 다음 리전에서 사용할 수 있습니다.
  • us-east5 (Ohio)
  • asia-southeast1 (Singapore)
  • europe-west1 (Belgium)
Claude 3 Sonnet은 다음 리전에서 사용할 수 있습니다.
  • us-east5 (Ohio)

Anthropic Claude 할당량 및 지원되는 컨텍스트 길이

Claude 모델의 경우 모델을 사용할 수 있는 각 리전에 할당량이 적용됩니다. 할당량은 분당 쿼리 수(QPM) 및 분당 토큰 수(TPM)로 지정됩니다. TPM에는 입력 및 출력 토큰이 모두 포함됩니다.

Claude 3.5 Sonnet의 기본 할당량 한도 및 지원되는 컨텍스트 길이는 다음과 같습니다.

리전 할당량 시스템 지원되는 컨텍스트 길이
us-east5 (Ohio) 동적 공유 할당량 지원 200,000 토큰
asia-southeast1 (Singapore) 동적 공유 할당량 지원 200,000 토큰
europe-west1 (Belgium) 동적 공유 할당량 지원 200,000 토큰

Claude 3 Opus의 기본 할당량 한도 및 지원되는 컨텍스트 길이는 다음과 같습니다.

리전 기본 할당량 한도 지원되는 컨텍스트 길이
us-east5 (Ohio) 동적 공유 할당량 지원 200,000 토큰

Claude 3 Haiku의 기본 할당량 한도 및 지원되는 컨텍스트 길이는 다음과 같습니다.

리전 기본 할당량 한도 지원되는 컨텍스트 길이
us-east5 (Ohio) 동적 공유 할당량 지원 200,000 토큰
asia-southeast1 (Singapore) 동적 공유 할당량 지원 200,000 토큰
europe-west1 (Belgium) 동적 공유 할당량 지원 200,000 토큰

Claude 3 Sonnet의 기본 할당량 한도 및 지원되는 컨텍스트 길이는 다음과 같습니다.

리전 기본 할당량 한도 지원되는 컨텍스트 길이
us-east5 (Ohio) 동적 공유 할당량 지원 200,000 토큰

Vertex AI의 생성형 AI 할당량을 상향 조정하려면 Google Cloud 콘솔을 사용해 할당량 상향을 요청하면 됩니다. 할당량에 대한 자세한 내용은 할당량 작업을 참조하세요.