generateContent
또는 streamGenerateContent
를 사용하여 Gemini로 콘텐츠를 생성합니다.
Gemini 모델 계열에는 멀티모달 프롬프트 요청에 사용할 수 있는 모델이 포함됩니다. 멀티모달이란 프롬프트에서 두 개 이상의 형식 또는 입력 유형을 사용할 수 있는 것을 말합니다. 멀티모달이 아닌 모델은 텍스트 프롬프트만 허용합니다. 형식에는 텍스트, 오디오, 동영상 등이 포함될 수 있습니다.
Google Cloud 계정을 만들어 시작하기
Gemini용 Vertex AI API를 사용하려면 Google Cloud 계정을 만듭니다.
계정을 만든 후 이 문서에서 Gemini 모델 요청 본문, 모델 파라미터, 응답 본문, 몇 가지 샘플 요청을 검토합니다.
준비가 되면 Gemini용 Vertex AI API 빠른 시작을 참조하여 프로그래밍 언어 SDK 또는 REST API를 사용하여 Vertex AI Gemini API에 요청을 전송하는 방법을 알아보세요.
지원되는 모델
모델 | 버전 |
---|---|
Gemini 1.5 Flash | gemini-1.5-flash-001 gemini-1.5-flash-002 |
Gemini 1.5 Pro | gemini-1.5-pro-001 gemini-1.5-pro-002 |
Gemini 1.0 Pro Vision | gemini-1.0-pro-001 gemini-1.0-pro-vision-001 |
Gemini 1.0 Pro | gemini-1.0-pro gemini-1.0-pro-001 gemini-1.0-pro-002 |
예시 문법
모델 응답을 생성하는 문법입니다.
비스트리밍
curl
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/publishers/google/models/${MODEL_ID}:generateContent \ -d '{ "contents": [{ ... }], "generationConfig": { ... }, "safetySettings": { ... } ... }'
Python
gemini_model = GenerativeModel(MODEL_ID) generation_config = GenerationConfig(...) model_response = gemini_model.generate_content([...], generation_config, safety_settings={...})
스트리밍
curl
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/publishers/google/models/${MODEL_ID}:streamGenerateContent \ -d '{ "contents": [{ ... }], "generationConfig": { ... }, "safetySettings": { ... } ... }'
Python
gemini_model = GenerativeModel(MODEL_ID) model_response = gemini_model.generate_content([...], generation_config, safety_settings={...}, stream=True)
매개변수 목록
구현 세부정보는 예시를 참조하세요.
요청 본문
{ "cachedContent": string, "contents": [ { "role": string, "parts": [ { // Union field data can be only one of the following: "text": string, "inlineData": { "mimeType": string, "data": string }, "fileData": { "mimeType": string, "fileUri": string }, // End of list of possible types for union field data. "videoMetadata": { "startOffset": { "seconds": integer, "nanos": integer }, "endOffset": { "seconds": integer, "nanos": integer } } } ] } ], "systemInstruction": { "role": string, "parts": [ { "text": string } ] }, "tools": [ { "functionDeclarations": [ { "name": string, "description": string, "parameters": { object (OpenAPI Object Schema) } } ] } ], "safetySettings": [ { "category": enum (HarmCategory), "threshold": enum (HarmBlockThreshold) } ], "generationConfig": { "temperature": number, "topP": number, "topK": number, "candidateCount": integer, "maxOutputTokens": integer, "presencePenalty": float, "frequencyPenalty": float, "stopSequences": [ string ], "responseMimeType": string, "responseSchema": schema, "seed": integer, "responseLogprobs": boolean, "logprobs": integer, "audioTimestamp": boolean }, "labels": { string: string } }
요청 본문에는 다음 매개변수가 있는 데이터가 포함됩니다.
매개변수 | |
---|---|
|
선택사항: 캐시된 콘텐츠입니다. 반복되는 콘텐츠가 포함된 요청에서 캐시된 콘텐츠를 사용할 수 있습니다. |
|
필수: 모델과의 현재 대화 콘텐츠입니다. 싱글턴 쿼리의 경우 이는 단일 인스턴스입니다. 멀티턴 쿼리의 경우 이는 대화 기록과 최근 요청이 포함된 반복 필드입니다. |
|
선택사항:
성능 향상을 위해 모델을 조정하는 안내입니다. 예를 들면 '가능한 한 간결하게 답변하세요' 또는 '응답에 기술 용어를 사용하지 마세요' 등이 있습니다.
|
|
선택사항. 시스템이 모델의 지식과 범위를 벗어나 외부 시스템과 상호작용하여 작업 또는 작업 집합을 수행할 수 있도록 하는 코드 조각입니다. 함수 호출을 참조하세요. |
|
선택사항. 함수 호출을 참조하세요. |
|
선택사항: 안전하지 않은 콘텐츠를 차단하는 요청별 설정입니다.
|
|
선택사항: 생성 구성 설정입니다. |
|
선택사항: 키-값 쌍 형식으로 API 호출에 추가할 수 있는 메타데이터입니다. |
contents
메시지의 여러 부분으로 구성된 콘텐츠를 포함하는 구조화된 데이터의 기본 유형입니다.
이 클래스는 role
및 parts
라는 두 가지 기본 속성으로 구성됩니다. role
속성은 콘텐츠를 생성하는 개별 사용자를 나타내고 parts
속성에는 여러 요소가 포함되며 각 요소는 메시지 내 데이터 세그먼트를 나타냅니다.
매개변수 | |
---|---|
|
선택사항: 메시지를 생성하는 항목의 ID입니다. 다음과 같은 값이 지원됩니다.
멀티턴이 아닌 대화의 경우 이 필드를 비워 두거나 설정하지 않을 수 있습니다. |
|
단일 메시지를 구성하는 순서가 지정된 부분의 목록입니다. 부분마다 IANA MIME 유형이 다를 수 있습니다. 최대 토큰 수 또는 최대 이미지 수와 같은 입력 한도는 Google 모델 페이지의 모델 사양을 참조하세요. 요청에 포함된 토큰 수를 계산하려면 토큰 수 가져오기를 참조하세요. |
parts
멀티 파트 Content
메시지의 일부인 미디어를 포함하는 데이터 유형입니다.
매개변수 | |
---|---|
|
선택사항: 텍스트 프롬프트 또는 코드 스니펫입니다. |
|
선택사항: 원시 바이트의 인라인 데이터입니다.
|
|
선택사항: 파일에 저장된 데이터입니다. |
|
선택사항:
함수 호출을 참조하세요. |
|
선택사항:
함수 호출을 참조하세요. |
|
선택사항: 동영상 입력의 경우 기간 형식의 동영상 시작 및 끝 오프셋입니다. 예를 들어 1:00부터 시작하는 10초 클립을 지정하려면 메타데이터는 동영상 데이터가 |
blob
콘텐츠 blob입니다. 가능하다면 원시 바이트가 아닌 텍스트로 보내세요.
매개변수 | |
---|---|
|
data 또는 fileUri 필드에 지정된 파일의 미디어 유형입니다. 허용되는 값은 다음과 같습니다.
클릭하여 MIME 유형 펼치기
Gemini 1.5 Pro 및 Gemini 1.5 Flash의 경우 오디오 파일의 최대 길이는 8.4시간이고 동영상 파일의 최대 길이(오디오 제외)는 1시간입니다. 자세한 내용은 Gemini 1.5 Pro 미디어 요구사항을 참조하세요. 텍스트 파일은 UTF-8로 인코딩되어야 합니다. 텍스트 파일 콘텐츠는 토큰 제한에 반영됩니다. 이미지 해상도에는 제한이 없습니다. |
|
프롬프트에서 인라인을 포함할 이미지, PDF, 또는 동영상의 base64 인코딩입니다. 미디어를 인라인으로 포함할 경우 데이터의 미디어 유형( 크기 제한: 20MB |
CachedContent
컨텍스트 캐시가 만료되면 업데이트하는 데 사용됩니다. CachedContent
를 업데이트할 때 ttl
또는 expireTime
을 지정해야 하지만 둘 다 지정할 수는 없습니다. 자세한 내용은 컨텍스트 캐싱 사용을 참조하세요.
매개변수 | |
---|---|
|
컨텍스트 캐시가 생성되거나 업데이트된 후 컨텍스트 캐시가 만료되기 전에 지속되는 초 및 나노초를 지정하는 데 사용됩니다. |
|
컨텍스트 캐시가 만료되는 시간을 지정하는 타임스탬프입니다. |
TTL
컨텍스트 캐시가 생성되거나 업데이트된 후 만료되기 전까지의 TTL(수명) 또는 기간입니다.
매개변수 | |
---|---|
|
컨텍스트 캐시가 생성된 후 만료되기 전까지 기간의 초 부분입니다. 기본값은 3,600초입니다. |
|
선택사항: 컨텍스트 캐시가 생성된 후 만료되기 전까지 기간의 나노초 부분입니다. |
FileData
URI 또는 웹 URL 데이터입니다.
매개변수 | |
---|---|
|
데이터의 IANA MIME 유형입니다. |
|
프롬프트에 포함할 파일의 URI 또는 URL입니다. 허용되는 값은 다음과 같습니다.
|
functionCall
functionDeclaration.name
을 나타내는 문자열 및 매개변수와 해당 값이 포함된 구조화된 JSON 객체를 포함하는 모델에서 반환된 예측된 functionCall
입니다.
매개변수 | |
---|---|
|
호출하려는 함수의 이름입니다. |
|
JSON 객체 형식의 함수 매개변수와 값입니다. 매개변수 세부정보는 함수 호출을 참조하세요. |
functionResponse
FunctionDeclaration.name
을 나타내는 문자열이 포함된 FunctionCall
의 결과 출력입니다. 또한 함수의 출력이 포함된 구조화된 JSON 객체를 포함하고 이를 모델의 컨텍스트로 사용합니다. 여기에는 모델 예측을 기반으로 생성된 FunctionCall
의 결과가 포함되어야 합니다.
매개변수 | |
---|---|
|
호출하려는 함수의 이름입니다. |
|
JSON 객체 형식의 함수 응답입니다. |
videoMetadata
입력 동영상 콘텐츠를 설명하는 메타데이터입니다.
매개변수 | |
---|---|
|
선택사항: 동영상의 시작 오프셋입니다. |
|
선택사항: 동영상의 종료 오프셋입니다. |
safetySetting
안전 설정입니다.
매개변수 | |
---|---|
|
선택사항:
기준점을 구성할 안전 카테고리입니다. 허용되는 값은 다음과 같습니다.
클릭하여 안전 카테고리 펼치기
|
|
선택사항: 확률에 따라 지정된 안전 카테고리에 속할 수 있는 응답 차단의 기준점입니다.
|
|
선택사항: 확률 또는 심각도 점수에 기준점이 사용되는지 지정합니다. 지정하지 않으면 기준점이 확률 점수에 사용됩니다. |
harmCategory
콘텐츠를 차단하는 유해 카테고리입니다.
매개변수 | |
---|---|
|
피해 카테고리가 지정되지 않았습니다. |
|
피해 카테고리는 증오심 표현입니다. |
|
피해 카테고리는 위험한 콘텐츠입니다. |
|
피해 카테고리는 괴롭힘입니다. |
|
피해 카테고리는 음란물입니다. |
harmBlockThreshold
응답을 차단하는 데 사용되는 확률 기준점 수준입니다.
매개변수 | |
---|---|
|
지정되지 않은 피해 차단 기준점입니다. |
|
낮은 기준점 이상을 차단합니다(즉, 더 차단). |
|
중간 기준점 이상을 차단합니다. |
|
높은 기준점만 차단합니다(즉, 덜 차단). |
|
차단하지 않습니다. |
|
모든 카테고리가 사용 중지된 경우 안전을 사용 중지합니다. |
harmBlockMethod
확률과 심각도의 조합에 따라 응답을 차단하는 확률 기준점입니다.
매개변수 | |
---|---|
|
피해 차단 메서드가 지정되지 않았습니다. |
|
피해 차단 메서드에서 확률 점수와 심각도 점수를 모두 사용합니다. |
|
피해 차단 메서드에서 확률 점수를 사용합니다. |
generationConfig
프롬프트를 생성할 때 사용되는 구성 설정입니다.
매개변수 | |
---|---|
|
선택사항:
강도(temperature)는 응답 생성 중 샘플링에 사용되며 모델이 너무 일반적이거나, 너무 짧은 응답을 반환하거나 모델이 대체 응답을 제공할 경우에는 온도(temperature)를 높여보세요.
|
|
선택사항: 지정하면 Nucleus 샘플링이 사용됩니다. Top-P는 모델이 출력용 토큰을 선택하는 방식을 변경합니다. 토큰은 확률의 합이 Top-P 값과 같아질 때까지 확률이 가장 높은 것부터(Top-K 참조) 가장 낮은 것까지 선택됩니다. 예를 들어 토큰 A, B, C의 확률이 0.3, 0.2, 0.1이고 Top-P 값이 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다.
|
|
선택사항: Top-K는 모델이 출력용 토큰을 선택하는 방식을 변경합니다. Top-K가 각 토큰 선택 단계에서 확률이 가장 높은 최상위 K 토큰이 샘플링됩니다. 그런 다음 Top-P를 기준으로 토큰을 추가로 필터링하고 강도 샘플링을 사용하여 최종 토큰을 선택합니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 범위:
|
|
선택사항: 반환할 응답 변형의 개수입니다. 각 요청에 대해 모든 후보의 출력 토큰이 청구되지만 입력 토큰은 한 번만 청구됩니다. 여러 후보 지정은
|
|
선택사항: int 응답에서 생성될 수 있는 토큰의 최대 개수입니다. 토큰은 약 4자(영문 기준)입니다. 토큰 100개는 단어 약 60~80개에 해당합니다. 응답이 짧을수록 낮은 값을 지정하고 잠재적으로 응답이 길면 높은 값을 지정합니다. |
|
선택사항:
문자열 중 하나가 응답에서 발견되면 모델에 텍스트 생성을 중지하도록 지시하는 문자열 목록을 지정합니다. 문자열이 응답에 여러 번 표시되면 처음 발견된 위치에서 응답이 잘립니다.
문자열은 대소문자를 구분합니다.
목록에 최대 5개의 항목이 포함됩니다. |
|
선택사항: 양수 페널티입니다. 양수 값은 생성된 텍스트에 이미 표시된 토큰에 페널티를 적용하여 다양한 콘텐츠가 생성될 가능성을 높입니다.
|
|
선택사항: 양수 값은 생성된 텍스트에 반복적으로 표시되는 토큰에 페널티를 적용하여 콘텐츠가 반복될 가능성을 줄입니다.
|
|
선택사항: 다음 모델에서 사용할 수 있습니다.
생성된 후보 텍스트의 출력 응답 MIME 유형입니다. 지원되는 MIME 유형은 다음과 같습니다.
의도하지 않은 동작이 방지되도록 적절한 응답 유형을 지정합니다. 예를 들어 JSON 형식의 응답이 필요하면 |
|
선택사항: 스키마 후보 텍스트를 생성한 스키마가 이어서 표시되어야 합니다. 자세한 내용은 생성된 출력 제어를 참조하세요. 이 파라미터를 사용하려면 다음 모델에서 사용할 수 있습니다.
|
|
선택사항: 시드가 특정 값으로 고정되면 모델은 반복된 요청에 같은 응답을 제공하기 위해 최선을 다합니다. 결정론적 출력은 보장되지 않습니다. 또한 온도와 같은 모델 또는 매개변수 설정을 변경하면 같은 시드 값을 사용하더라도 응답이 달라질 수 있습니다. 기본적으로 무작위 시드 값이 사용됩니다. 이 기능은 미리보기 기능입니다. 다음 모델에서 사용할 수 있습니다.
|
|
선택사항: true인 경우 각 단계에서 모델이 선택한 토큰의 로그 확률을 반환합니다. 기본적으로 이 파라미터는 다음 모델에서 사용할 수 있습니다.
이 기능은 미리보기 기능입니다. |
|
선택사항:
각 생성 단계에서 상위 후보 토큰의 로그 확률을 반환합니다. 모델에서 선택한 토큰과 로그 확률은 항상 각 단계에서 반환되며 상위 후보 목록에 표시되지 않을 수 있습니다. 이 파라미터를 사용하려면 이 기능은 미리보기 기능입니다. |
|
선택사항: 다음 모델에서 사용할 수 있습니다.
오디오 전용 파일의 타임스탬프 이해를 사용 설정합니다. 이 기능은 미리보기 기능입니다. |
응답 본문
{ "candidates": [ { "modelVersion": string, "content": { "parts": [ { "text": string } ] }, "finishReason": enum (FinishReason), "safetyRatings": [ { "category": enum (HarmCategory), "probability": enum (HarmProbability), "blocked": boolean } ], "citationMetadata": { "citations": [ { "startIndex": integer, "endIndex": integer, "uri": string, "title": string, "license": string, "publicationDate": { "year": integer, "month": integer, "day": integer } } ] }, "avgLogprobs": double, "logprobsResult": { "topCandidates": [ { "candidates": [ { "token": string, "logProbability": float } ] } ], "chosenCandidates": [ { "token": string, "logProbability": float } ] } } ], "usageMetadata": { "promptTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } }
응답 요소 | 설명 |
---|---|
modelVersion |
생성에 사용된 모델 및 버전입니다. 예를 들면 gemini-1.5-flash-002 입니다. |
text |
생성된 텍스트입니다. |
finishReason |
모델 토큰 생성이 중지된 이유입니다. 비어 있으면 모델이 토큰 생성을 중단하지 않은 것입니다. 응답은 컨텍스트를 위해 프롬프트를 사용하기 때문에 모델의 토큰 생성 중지 동작을 변경할 수 없습니다.
|
category |
기준점을 구성할 안전 카테고리입니다. 허용되는 값은 다음과 같습니다.
클릭하여 안전 카테고리 펼치기
|
probability |
유해 콘텐츠일 확률 수준입니다.
|
blocked |
모델의 입력이나 출력이 차단되었는지 여부를 나타내는 안전 속성과 연결된 불리언 플래그입니다. |
startIndex |
content 에서 인용이 시작되는 위치를 지정하는 정수입니다. |
endIndex |
content 에서 인용이 끝나는 위치를 지정하는 정수입니다.
|
url |
인용 출처의 URL입니다. URL 소스의 예시에는 뉴스 웹사이트 또는 GitHub 저장소가 있습니다. |
title |
인용 출처의 제목입니다. 소스 제목의 예시에는 뉴스 기사 또는 도서가 있습니다. |
license |
인용과 연결된 라이선스입니다. |
publicationDate |
인용이 게시된 날짜입니다. 유효한 형식은 YYYY , YYYY-MM , YYYY-MM-DD 입니다.
|
avgLogprobs |
후보의 평균 로그 확률입니다. |
token |
생성형 AI 모델은 처리를 위해 텍스트 데이터를 토큰(문자, 단어 또는 구문)으로 분할합니다. |
logProbability |
특정 토큰에 대한 모델 신뢰도를 나타내는 로그 확률 값입니다. |
promptTokenCount |
요청의 토큰 수입니다. |
candidatesTokenCount |
응답의 토큰 수입니다. |
totalTokenCount |
요청과 응답의 토큰 수입니다. |
예
비스트리밍 텍스트 응답
텍스트 입력에서 비스트리밍 모델 응답을 생성합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: 프로젝트 ID입니다.LOCATION
: 요청을 처리하는 리전입니다.MODEL_ID
: 사용하려는 모델의 모델 ID입니다(예:gemini-1.5-flash-002
). 지원되는 모델 목록을 참조하세요.TEXT
: 프롬프트에 포함할 텍스트 지침입니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
JSON 요청 본문:
{ "contents": [{ "role": "user", "parts": [{ "text": "TEXT" }] }] }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent" | Select-Object -Expand Content
Python
NodeJS
자바
Go
C#
REST(OpenAI)
OpenAI 라이브러리를 사용하여 Inference API를 호출할 수 있습니다. 자세한 내용은 OpenAI 라이브러리를 사용하여 Vertex AI 모델 호출을 참조하세요.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_ID: 프로젝트 ID입니다.
- LOCATION: 요청을 처리하는 리전입니다.
- MODEL_ID: 사용할 모델의 이름입니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions
JSON 요청 본문:
{ "model": "google/MODEL_ID", "messages": [{ "role": "user", "content": "Write a story about a magic backpack." }] }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions" | Select-Object -Expand Content
Python(OpenAI)
OpenAI 라이브러리를 사용하여 Inference API를 호출할 수 있습니다. 자세한 내용은 OpenAI 라이브러리를 사용하여 Vertex AI 모델 호출을 참조하세요.
비스트리밍 멀티모달 응답
텍스트와 이미지 같은 멀티모달 입력으로부터 비스트리밍 모델 응답을 생성합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: 프로젝트 ID입니다.LOCATION
: 요청을 처리하는 리전입니다.MODEL_ID
: 사용하려는 모델의 모델 ID입니다(예:gemini-1.5-flash-002
). 지원되는 모델 목록을 참조하세요.TEXT
: 프롬프트에 포함할 텍스트 지침입니다.FILE_URI
: 데이터를 저장하는 파일에 대한 Cloud Storage URI입니다.MIME_TYPE
: 데이터의 IANA MIME 유형입니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
JSON 요청 본문:
{ "contents": [{ "role": "user", "parts": [ { "text": "TEXT" }, { "fileData": { "fileUri": "FILE_URI", "mimeType": "MIME_TYPE" } } ] }] }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent" | Select-Object -Expand Content
Python
NodeJS
자바
Go
C#
REST(OpenAI)
OpenAI 라이브러리를 사용하여 Inference API를 호출할 수 있습니다. 자세한 내용은 OpenAI 라이브러리를 사용하여 Vertex AI 모델 호출을 참조하세요.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_ID: 프로젝트 ID입니다.
- LOCATION: 요청을 처리하는 리전입니다.
- MODEL_ID: 사용할 모델의 이름입니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions
JSON 요청 본문:
{ "model": "google/MODEL_ID", "messages": [{ "role": "user", "content": [ { "type": "text", "text": "Describe the following image:" }, { "type": "image_url", "image_url": { "url": "gs://generativeai-downloads/images/character.jpg" } } ] }] }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions" | Select-Object -Expand Content
Python(OpenAI)
OpenAI 라이브러리를 사용하여 Inference API를 호출할 수 있습니다. 자세한 내용은 OpenAI 라이브러리를 사용하여 Vertex AI 모델 호출을 참조하세요.
스트리밍 텍스트 응답
텍스트 입력에서 스트리밍 모델 응답을 생성합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: 프로젝트 ID입니다.LOCATION
: 요청을 처리하는 리전입니다.MODEL_ID
: 사용하려는 모델의 모델 ID입니다(예:gemini-1.5-flash-002
). 지원되는 모델 목록을 참조하세요.TEXT
: 프롬프트에 포함할 텍스트 지침입니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
JSON 요청 본문:
{ "contents": [{ "role": "user", "parts": [{ "text": "TEXT" }] }] }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent" | Select-Object -Expand Content
Python
NodeJS
자바
Go
REST(OpenAI)
OpenAI 라이브러리를 사용하여 Inference API를 호출할 수 있습니다. 자세한 내용은 OpenAI 라이브러리를 사용하여 Vertex AI 모델 호출을 참조하세요.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_ID: 프로젝트 ID입니다.
- LOCATION: 요청을 처리하는 리전입니다.
- MODEL_ID: 사용할 모델의 이름입니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions
JSON 요청 본문:
{ "model": "google/MODEL_ID", "stream": true, "messages": [{ "role": "user", "content": "Write a story about a magic backpack." }] }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions" | Select-Object -Expand Content
Python(OpenAI)
OpenAI 라이브러리를 사용하여 Inference API를 호출할 수 있습니다. 자세한 내용은 OpenAI 라이브러리를 사용하여 Vertex AI 모델 호출을 참조하세요.
스트리밍 멀티모달 응답
텍스트 및 이미지와 같은 멀티모달 입력에서 스트리밍 모델 응답을 생성합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: 프로젝트 ID입니다.LOCATION
: 요청을 처리하는 리전입니다.MODEL_ID
: 사용하려는 모델의 모델 ID입니다(예:gemini-1.5-flash-002
). 지원되는 모델 목록을 참조하세요.TEXT
: 프롬프트에 포함할 텍스트 지침입니다.FILE_URI1
: 데이터를 저장하는 파일에 대한 Cloud Storage URI입니다.MIME_TYPE1
: 데이터의 IANA MIME 유형입니다.FILE_URI2
: 데이터를 저장하는 파일에 대한 Cloud Storage URI입니다.MIME_TYPE2
: 데이터의 IANA MIME 유형입니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
JSON 요청 본문:
{ "contents": [{ "role": "user", "parts": [ { "text": "TEXT" }, { "fileData": { "fileUri": "FILE_URI1", "mimeType": "MIME_TYPE1" } }, { "fileData": { "fileUri": "FILE_URI2", "mimeType": "MIME_TYPE2" } } ] }] }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent" | Select-Object -Expand Content
Python
NodeJS
자바
Go
REST(OpenAI)
OpenAI 라이브러리를 사용하여 Inference API를 호출할 수 있습니다. 자세한 내용은 OpenAI 라이브러리를 사용하여 Vertex AI 모델 호출을 참조하세요.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_ID: 프로젝트 ID입니다.
- LOCATION: 요청을 처리하는 리전입니다.
- MODEL_ID: 사용할 모델의 이름입니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions
JSON 요청 본문:
{ "model": "google/MODEL_ID", "stream": true, "messages": [{ "role": "user", "content": [ { "type": "text", "text": "Describe the following image:" }, { "type": "image_url", "image_url": { "url": "gs://generativeai-downloads/images/character.jpg" } } ] }] }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions" | Select-Object -Expand Content
Python(OpenAI)
OpenAI 라이브러리를 사용하여 Inference API를 호출할 수 있습니다. 자세한 내용은 OpenAI 라이브러리를 사용하여 Vertex AI 모델 호출을 참조하세요.
모델 버전
자동 업데이트 버전을 사용하려면 후행 버전 번호 없이 모델 이름을 지정합니다(예: gemini-1.5-flash-001
대신 gemini-1.5-flash
).
자세한 내용은 Gemini 모델 버전 및 수명 주기를 참조하세요.
다음 단계
- Gemini API에 대해 자세히 알아보기
- 함수 호출에 대해 자세히 알아보기
- Gemini 모델의 응답 그라운딩에 대해 자세히 알아보기