이 페이지에서는 Vertex AI Studio를 사용하여 텍스트를 한 언어에서 다른 언어로 빠르게 번역하는 방법을 보여줍니다. Vertex AI Studio의 번역은 Gemini를 비롯해 Cloud Translation 인공신경망 기계 번역(NMT) 모델과 번역을 위해 미세 조정된 LLM(번역 LLM이라고도 함)을 포함하는 2가지 특수 번역 모델 중에서 선택할 수 있습니다.
번역 LLM을 사용할 때는 번역 예시를 제공하여 사용자의 스타일, 어조, 업종에 더욱 적합하게 대답하도록 할 수 있습니다. 모델이 번역하기 전에 예시를 퓨샷 컨텍스트로 사용합니다. Vertex AI Studio에서 이 맞춤설정은 번역 LLM에서만 작동합니다. 예를 들어 Gemini 또는 NMT 모델을 사용할 때는 예시를 전달할 수 없습니다.
지원 언어
각 모델이 지원하는 언어는 다를 수 있습니다. 번역을 요청하기 전에 사용 중인 모델이 출발어와 도착어를 지원하는지 확인합니다.
번역 LLM
번역 LLM의 경우 다음 언어 쌍 간의 번역이 가능합니다.
- 아랍어 <-> 영어
- 중국어(간체) <-> 영어
- 프랑스어 <-> 영어
- 독일어 <-> 영어
- 힌디어 <-> 영어
- 이탈리아어 <-> 영어
- 일본어 <-> 영어
- 한국어 <-> 영어
- 포르투갈어 <-> 영어
- 러시아어 <-> 영어
- 스페인어 <-> 영어
Gemini 및 NMT
Gemini 및 NMT 모델이 지원하는 언어에 대한 자세한 내용은 다음 문서를 참조하세요.
텍스트 번역
번역 LLM, Gemini 또는 NMT 모델을 사용하여 Google Cloud 콘솔 또는 API를 사용해 텍스트를 번역합니다.
Console
Google Cloud 콘솔의 Cloud Translation 섹션에서 Vertex AI Studio의 텍스트 번역 페이지로 이동합니다.
실행 설정 창의 모델 필드에서 번역 모델을 선택합니다.
모델 설정(예: 강도)을 변경하려면 고급을 펼칩니다.
출발어와 도착어를 설정합니다.
입력란에 번역할 텍스트를 입력합니다.
제출을 클릭합니다.
번역 요청 방법을 보여주는 코드 또는 curl 명령어를 가져오려면
코드 가져오기를 클릭합니다.
API
번역에 사용할 모델을 선택합니다.
번역 LLM
Vertex AI API 및 번역 LLM을 사용하여 텍스트를 번역합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_NUMBER_OR_ID: Google Cloud 프로젝트의 숫자 또는 영숫자 ID입니다.
- LOCATION: 이 작업을 실행할 위치입니다.
예를 들면
us-central1
입니다. - SOURCE_LANGUAGE_CODE: 입력 텍스트의 언어 코드입니다. 적응형 번역에 나열된 언어 코드 중 하나로 설정합니다.
- TARGET_LANGUAGE_CODE: 입력 텍스트를 번역할 도착어입니다. 적응형 번역에 나열된 언어 코드 중 하나로 설정합니다.
- SOURCE_TEXT: 번역할 출발어의 텍스트입니다.
- MIME_TYPE(선택사항): 소스 텍스트의 형식입니다(예:
text/html
또는text/plain
). 기본적으로 MIME 유형은text/plain
으로 설정됩니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
JSON 요청 본문:
"instances": [{ "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }]
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
이 샘플을 사용해 보기 전에 Cloud Translation 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 Cloud Translation Node.js API 참고 문서를 확인하세요.
Cloud Translation에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
이 샘플을 사용해 보기 전에 Cloud Translation 빠른 시작: 클라이언트 라이브러리 사용의 Python 설정 안내를 따르세요. 자세한 내용은 Cloud Translation Python API 참고 문서를 확인하세요.
Cloud Translation에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text') # Initialize the request instances=[{ "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Gemini
Vertex AI API 및 Gemini를 사용하여 텍스트를 번역합니다.
오픈 프롬프팅과 프롬프트 엔지니어링을 통해 추가로 맞춤설정할 수 있습니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_NUMBER_OR_ID: Google Cloud 프로젝트의 숫자 또는 영숫자 ID
- LOCATION: 요청을 처리할 위치. 사용 가능한 옵션은 다음과 같습니다.
클릭하여 사용 가능한 리전의 일부 목록 펼치기
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- MODEL_ID: 모델의 ID입니다(예:
gemini-1.0-pro-002
). - SOURCE_LANGUAGE_CODE: 입력 텍스트의 언어입니다.
- TARGET_LANGUAGE_CODE: 입력 텍스트를 번역할 도착어입니다.
- SOURCE_TEXT: 번역할 텍스트
- TEMPERATURE: 강도는 대답 생성 중 샘플링에 사용되며
topP
및topK
가 적용될 때 발생합니다. 온도는 토큰 선택의 무작위성 수준을 제어합니다. 온도가 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 응답이 필요한 프롬프트에 적합하고, 온도가 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. 온도가0
이면 확률이 가장 높은 토큰이 항상 선택됩니다. 이 경우 특정 프롬프트에 대한 응답은 대부분 확정적이지만 여전히 약간의 변형이 가능합니다.모델이 너무 일반적이거나, 너무 짧은 응답을 반환하거나 모델이 대체 응답을 제공할 경우에는 강도(temperature)를 높여보세요.
- TOP_P: Top-P는 모델이 출력용 토큰을 선택하는 방식을 변경합니다. 토큰은 확률의 합이 Top-P 값과 같아질 때까지 확률이 가장 높은 것부터(Top-K 참조) 가장 낮은 것까지 선택됩니다. 예를 들어 토큰 A, B, C의 확률이 0.3, 0.2, 0.1이고 Top-P 값이
0.5
이면 모델이 온도를 사용해서 다음 토큰으로 A 또는 B를 선택하고 C는 후보에서 제외합니다.임의성이 낮은 응답에 낮은 값을 지정하고 임의성이 높은 응답에 높은 값을 지정합니다.
- TOP_K: Top-K는 모델이 출력용 토큰을 선택하는 방식을 변경합니다. Top-K가
1
이면 선택된 토큰이 모델의 어휘에 포함된 모든 토큰 중에서 가장 확률이 높다는 의미입니다(그리디 디코딩이라고도 함). 반면에 Top-K가3
이면 강도를 사용하여 가장 확률이 높은 3개 토큰 중에서 다음 토큰이 선택된다는 의미입니다.각 토큰 선택 단계에서 확률이 가장 높은 Top-K 토큰이 샘플링됩니다. 그런 다음 Top-P를 기준으로 토큰을 추가로 필터링하고 온도 샘플링을 사용하여 최종 토큰을 선택합니다.
임의성이 낮은 응답에 낮은 값을 지정하고 임의성이 높은 응답에 높은 값을 지정합니다.
- MAX_OUTPUT_TOKENS: 응답에서 생성될 수 있는 토큰의 최대 개수. 토큰은 약 4자(영문 기준)입니다. 토큰 100개는 단어 약 60~80개에 해당합니다.
응답이 짧을수록 낮은 값을 지정하고 잠재적으로 응답이 길면 높은 값을 지정합니다.
- SAFETY_CATEGORY: 기준점을 구성할 안전 카테고리입니다. 허용되는 값은 다음과 같습니다.
클릭하여 안전 카테고리 펼치기
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD: 확률에 따라 지정된 안전 카테고리에 속할 수 있는 응답 차단의 기준점입니다. 허용되는 값은 다음과 같습니다.
클릭하여 차단 기준점 펼치기
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(기본)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
는 가장 많이 차단하며BLOCK_ONLY_HIGH
는 가장 적게 차단합니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
JSON 요청 본문:
{ "contents": [ { "role": "user", "parts": [ { "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:" } ] } ], "generation_config": { "temperature": TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "candidateCount": 1, "maxOutputTokens": MAX_OUTPUT_TOKENS } "safetySettings": [ { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" } ] }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
성공 상태 코드(2xx)와 빈 응답을 받게 됩니다.
Node.js
이 샘플을 사용해 보기 전에 Cloud Translation 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 Cloud Translation Node.js API 참고 문서를 확인하세요.
Cloud Translation에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
const {VertexAI} = require('@google-cloud/vertexai'); // Initialize Vertex with your Cloud project and location const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'}); const model = 'gemini-1.0-pro'; // Instantiate the models const generativeModel = vertex_ai.preview.getGenerativeModel({ model: model, generationConfig: { 'candidate_count': 1, 'max_output_tokens': MAX_OUTPUT_TOKENS, 'temperature': TEMPERATURE, 'top_p': TOP_P, 'top_k': TOP_K, }, safetySettings: [ { 'category': 'HARM_CATEGORY_HATE_SPEECH', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_DANGEROUS_CONTENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_HARASSMENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' } ], }); async function generateContent() { const req = { contents: [ {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:`}]} ], }; const streamingResp = await generativeModel.generateContentStream(req); for await (const item of streamingResp.stream) { process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n'); } process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response)); } generateContent();
Python
이 샘플을 사용해 보기 전에 Cloud Translation 빠른 시작: 클라이언트 라이브러리 사용의 Python 설정 안내를 따르세요. 자세한 내용은 Cloud Translation Python API 참고 문서를 확인하세요.
Cloud Translation에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
import base64 import vertexai from vertexai.generative_models import GenerativeModel, Part, FinishReason import vertexai.preview.generative_models as generative_models def generate(): vertexai.init(project="PROJECT_ID", location="LOCATION") model = GenerativeModel("gemini-1.0-pro") responses = model.generate_content( ["""SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:"""], generation_config=generation_config, safety_settings=safety_settings, ) print(responses) generation_config = { "candidate_count": 1, "max_output_tokens": MAX_OUTPUT_TOKENS, "temperature": TEMPERATURE, "top_p": TOP_P, "top_k": TOP_K, } safety_settings = { generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, } generate()
NMT
Cloud Translation API 및 NMT 모델을 사용하여 텍스트를 번역합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_NUMBER_OR_ID: Google Cloud 프로젝트의 숫자 또는 영숫자 ID
- SOURCE_LANGUAGE: (선택사항) 입력 텍스트의 언어 코드입니다. 지원되는 언어 코드는 언어 지원을 참조하세요.
- TARGET_LANGUAGE: 입력 텍스트를 번역할 도착어입니다. 지원되는 언어 코드 중 하나로 설정합니다.
- SOURCE_TEXT: 번역할 텍스트입니다.
HTTP 메서드 및 URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
JSON 요청 본문:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
이 샘플을 사용해 보기 전에 Cloud Translation 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 Cloud Translation Node.js API 참고 문서를 확인하세요.
Cloud Translation에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
Python
이 샘플을 사용해 보기 전에 Cloud Translation 빠른 시작: 클라이언트 라이브러리 사용의 Python 설정 안내를 따르세요. 자세한 내용은 Cloud Translation Python API 참고 문서를 확인하세요.
Cloud Translation에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
커스텀 번역
자체 예시 번역을 제공하여 번역 LLM의 대답을 맞춤설정합니다. 커스텀 번역은 번역 LLM에서만 작동합니다.
Vertex AI Studio 콘솔 또는 API를 통해 맞춤설정된 번역을 요청할 수 있습니다. TMX 또는 TSV 파일에 예시를 제공하는 경우에만 콘솔에서 커스텀 번역을 지원합니다. API는 번역 요청의 일부로 최대 5개의 예시 문장 쌍을 인라인으로 제공하는 경우에만 커스텀 번역을 지원합니다.
데이터 요구사항
Google Cloud 콘솔 파일에 예시 번역을 제공하는 경우 예시는 TMX 또는 TSV 파일에 세그먼트 쌍으로 작성되어야 합니다. 각 쌍에는 출발어 세그먼트와 이에 상응하는 번역 세그먼트가 포함됩니다. 자세한 내용은 Cloud Translation 문서의 예시 번역 준비를 참조하세요.
가장 정확한 결과를 얻으려면 다양한 시나리오의 구체적인 예시를 포함하세요. 최소 5개 이상의 문장 쌍을 포함해야 하며, 최대 10,000쌍을 넘지 않아야 합니다. 또한 세그먼트 쌍의 최대 길이는 총 512자(영문 기준)입니다.
Console
Google Cloud 콘솔의 Cloud Translation 섹션에서 Vertex AI Studio의 텍스트 번역 페이지로 이동합니다.
실행 설정 창에서 번역 설정을 구성합니다.
- 모델 필드에서 번역 LLM을 선택합니다.
- 강도를 변경하려면 고급을 펼칩니다.
예시 추가를 클릭합니다.
- 로컬 파일 또는 Cloud Storage의 파일을 선택하세요. Vertex AI Studio는 파일의 출발어와 도착어를 결정합니다.
- 대답 생성 전에 사용할 모델의 예시 수를 선택하세요.
선택한 예시의 수는 요청당 입력 글자 수 제한 3,000자에 해당됩니다.
입력란에 번역할 텍스트를 입력합니다.
제출을 클릭합니다.
Cloud Translation에서 입력과 가장 유사한 지정된 수의 참조 문장을 자동으로 선택합니다. 번역 모델은 예시에서 패턴을 식별한 다음 대답을 생성할 때 이러한 패턴을 적용합니다.
요청당 출력 한도는 3,000자(영문 기준)입니다. 이 한도를 초과하는 텍스트는 모두 삭제됩니다.
번역 요청 방법을 보여주는 코드 또는 curl 명령어를 가져오려면
코드 가져오기를 클릭합니다.
API
커스텀 번역을 요청하려면 번역 요청에 참조 문장 쌍을 최대 5개까지 포함하세요. 번역 모델은 모든 참조 문장을 사용하여 예시의 패턴을 식별한 다음 대답을 생성할 때 이러한 패턴을 적용합니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_NUMBER_OR_ID: Google Cloud 프로젝트의 숫자 또는 영숫자 ID입니다.
- LOCATION: 이 작업을 실행할 위치입니다.
예를 들면
us-central1
입니다. - REFERENCE_SOURCE: 참조 문장 쌍에 속하는 소스 언어의 문장
- REFERENCE_TARGET: 참조 문장 쌍에 속하는 타겟 언어 문장
- SOURCE_LANGUAGE: 입력 텍스트의 언어 코드입니다.
- TARGET_LANGUAGE: 소스 텍스트를 번역할 타겟 언어.
- SOURCE_TEXT: 번역할 출발어의 텍스트입니다.
- MIME_TYPE(선택사항): 소스 텍스트의 형식입니다(예:
text/html
또는text/plain
). 기본적으로 MIME 유형은text/plain
으로 설정됩니다.
HTTP 메서드 및 URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
JSON 요청 본문:
"instances": [{ "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [{ "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" }] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE" }]
요청을 보내려면 다음 옵션 중 하나를 펼칩니다.
다음과 비슷한 JSON 응답이 표시됩니다.
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
이 샘플을 사용해 보기 전에 Cloud Translation 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 Cloud Translation Node.js API 참고 문서를 확인하세요.
Cloud Translation에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
이 샘플을 사용해 보기 전에 Cloud Translation 빠른 시작: 클라이언트 라이브러리 사용의 Python 설정 안내를 따르세요. 자세한 내용은 Cloud Translation Python API 참고 문서를 확인하세요.
Cloud Translation에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm') # Initialize the request instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
또한 Cloud Translation API를 사용하여 데이터 세트를 만들고 예시 문장 쌍을 가져옵니다. Cloud Translation API를 사용하여 번역을 요청하는 경우 데이터 세트를 포함하여 응답을 맞춤설정할 수 있습니다. 데이터 세트는 지속적으로 유지되며 여러 번역 요청에서 다시 사용할 수 있습니다 자세한 정보는 Cloud Translation 문서의 적응형 번역 요청을 참조하세요.