Halaman ini menunjukkan cara menggunakan Vertex AI Studio untuk menerjemahkan teks dari satu bahasa ke bahasa lain dengan cepat. Terjemahan di Vertex AI Studio menawarkan pilihan antara Gemini dan dua model terjemahan khusus, yang mencakup model Terjemahan Mesin Neural (NMT) Cloud Translation, dan LLM yang disesuaikan untuk terjemahan (juga disebut LLM terjemahan).
Saat menggunakan LLM terjemahan, Anda dapat menyesuaikan respons dengan memberikan contoh terjemahan sehingga respons lebih cocok dengan gaya, nada, dan domain industri Anda. Model ini menggunakan contoh Anda sebagai konteks few-shot sebelum menerjemahkan teks Anda. Di Vertex AI Studio, penyesuaian ini hanya berfungsi dengan LLM terjemahan; Anda tidak dapat, misalnya, meneruskan contoh saat menggunakan Gemini atau model NMT.
Bahasa yang didukung
Bahasa yang didukung setiap model dapat bervariasi. Sebelum meminta terjemahan, pastikan model yang Anda gunakan mendukung bahasa sumber dan target Anda.
LLM Terjemahan
Untuk LLM terjemahan, Anda dapat menerjemahkan ke dan dari salah satu pasangan bahasa berikut:
- Arab <-> Inggris
- China (Aksara Sederhana) <-> Inggris
- Ceko <-> Inggris
- Belanda <-> Inggris
- Prancis <-> Inggris
- Jerman <-> Inggris
- Hindi <-> Inggris
- Indonesia <-> Inggris
- Italia <-> Inggris
- Jepang <-> Inggris
- Korea <-> Inggris
- Polandia <-> Inggris
- Portugis <-> Inggris
- Rusia <-> Inggris
- Spanyol <-> Inggris
- Thai <-> Inggris
- Turki <-> Inggris
- Ukraina <-> Inggris
- Vietnam <-> Inggris
Gemini dan NMT
Untuk mengetahui informasi tentang bahasa yang didukung Gemini dan model NMT, lihat dokumentasi berikut:
Menerjemahkan teks
Gunakan LLM terjemahan, Gemini, atau model NMT untuk menerjemahkan teks menggunakan konsol atau API Google Cloud.
Konsol
Di bagian Cloud Translation pada konsol Google Cloud, buka halaman Translate text di Vertex AI Studio.
Di panel Run settings, pilih model terjemahan di kolom Model.
Untuk mengubah setelan model (seperti suhu), luaskan Lanjutan.
Tetapkan bahasa sumber dan target.
Di kolom input, masukkan teks yang ingin diterjemahkan.
Klik Kirim.
Untuk mendapatkan kode atau perintah curl yang menunjukkan cara meminta terjemahan, klik
Dapatkan kode.
API
Pilih model yang akan digunakan untuk terjemahan Anda.
LLM Terjemahan
Menggunakan Vertex AI API dan LLM terjemahan untuk menerjemahkan teks.
REST
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_NUMBER_OR_ID: ID numerik atau alfanumerik untuk project Google Cloud Anda
- LOCATION: Lokasi tempat Anda ingin menjalankan operasi ini.
Contoh,
us-central1
. - SOURCE_LANGUAGE_CODE: Kode bahasa teks input. Tetapkan ke salah satu kode bahasa yang tercantum di terjemahan adaptif.
- TARGET_LANGUAGE_CODE: Bahasa target untuk menerjemahkan teks input. Tetapkan ke salah satu kode bahasa yang tercantum di terjemahan adaptif.
- SOURCE_TEXT: Teks dalam bahasa sumber yang akan diterjemahkan.
- MIME_TYPE (Opsional): Format teks sumber, seperti
text/html
atautext/plain
. Secara default, jenis MIME disetel ketext/plain
.
Metode HTTP dan URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
Meminta isi JSON:
"instances": [{ "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }]
Untuk mengirim permintaan Anda, perluas salah satu opsi berikut:
Anda akan melihat respons JSON yang mirip dengan berikut ini:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Node.js di panduan memulai Cloud Translation menggunakan library klien. Untuk mengetahui informasi selengkapnya, silakan melihat dokumentasi referensi API Node.js Cloud Translation.
Untuk melakukan autentikasi ke Cloud Translation, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Python di panduan memulai Cloud Translation menggunakan library klien. Untuk mengetahui informasi selengkapnya, silakan melihat dokumentasi referensi API Python Cloud Translation.
Untuk melakukan autentikasi ke Cloud Translation, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text') # Initialize the request instances=[{ "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Gemini
Gunakan Vertex AI API dan Gemini untuk menerjemahkan teks.
Anda dapat menyesuaikan respons Gemini lebih lanjut melalui perintah terbuka dan rekayasa perintah.
REST
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_NUMBER_OR_ID: ID numerik atau alfanumerik untuk project Google Cloud Anda.
- LOCATION: Lokasi untuk memproses permintaan. Opsi
yang tersedia mencakup hal berikut:
Klik untuk meluaskan sebagian daftar region yang tersedia
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- MODEL_ID: ID model, seperti
gemini-1.0-pro-002
- SOURCE_LANGUAGE_CODE: Bahasa teks input.
- TARGET_LANGUAGE_CODE: Bahasa target untuk menerjemahkan teks input.
- SOURCE_TEXT: Teks untuk diterjemahkan.
- TEMPERATURE:
Suhu digunakan untuk pengambilan sampel selama pembuatan respons, yang terjadi saat
topP
dantopK
diterapkan. Suhu mengontrol tingkat keacakan dalam pemilihan token. Suhu yang lebih rendah cocok untuk perintah yang memerlukan respons yang kurang terbuka atau kreatif, sedangkan suhu yang lebih tinggi dapat memberikan hasil yang lebih beragam atau kreatif. Suhu0
berarti token probabilitas tertinggi selalu dipilih. Dalam hal ini, respons untuk permintaan tertentu sebagian besar deterministik, tetapi sedikit variasi masih dapat dilakukan.Jika model menampilkan respons yang terlalu umum, terlalu pendek, atau model memberikan respons pengganti, coba tingkatkan suhunya.
- TOP_P: Top-P mengubah cara model memilih token untuk output. Token dipilih
dari yang paling mungkin (lihat top-K) hingga yang paling tidak mungkin sampai jumlah probabilitasnya
sama dengan nilai top-P. Misalnya, jika token A, B, dan C memiliki probabilitas 0,3, 0,2, dan 0,1 dengan nilai top-P adalah
0.5
, model akan memilih A atau B sebagai token berikutnya dengan menggunakan suhu dan mengecualikan C sebagai kandidat.Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak yang lebih banyak.
- TOP_K: Top-K mengubah cara model memilih token untuk output. Top-K dari
1
berarti token yang dipilih berikutnya adalah yang paling mungkin di antara semua token dalam kosakata model (juga disebut decoding greedy), sedangkan nilai top-K dari3
berarti token berikutnya dipilih di antara tiga token yang paling mungkin menggunakan suhu.Untuk setiap langkah pemilihan token, token top-K dengan probabilitas tertinggi akan diambil sampelnya. Kemudian token akan difilter lebih lanjut berdasarkan top-P dengan token akhir yang dipilih menggunakan pengambilan sampel suhu.
Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak yang lebih banyak.
- MAX_OUTPUT_TOKENS:
Jumlah maksimum token yang dapat dibuat dalam respons. Token terdiri dari sekitar empat karakter. 100 token setara dengan sekitar 60-80 kata.
Tentukan nilai yang lebih rendah untuk respons yang lebih singkat dan nilai yang lebih tinggi untuk respons yang berpotensi lebih panjang.
- SAFETY_CATEGORY:
Kategori keamanan untuk mengonfigurasi nilai minimum. Nilai yang dapat diterima mencakup hal berikut:
Klik untuk meluaskan kategori keamanan
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD:
Batas untuk memblokir respons yang mungkin termasuk dalam kategori keamanan yang ditentukan berdasarkan
probabilitas. Nilai yang dapat diterima mencakup hal berikut:
Klik untuk meluaskan nilai minimum pemblokiran
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(default)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
memblokir paling banyak, sedangkanBLOCK_ONLY_HIGH
memblokir paling sedikit.
Metode HTTP dan URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
Meminta isi JSON:
{ "contents": [ { "role": "user", "parts": [ { "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:" } ] } ], "generation_config": { "temperature": TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "candidateCount": 1, "maxOutputTokens": MAX_OUTPUT_TOKENS } "safetySettings": [ { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" } ] }
Untuk mengirim permintaan Anda, perluas salah satu opsi berikut:
Anda akan menerima kode status yang berhasil (2xx) dan respons kosong.
Node.js
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Node.js di panduan memulai Cloud Translation menggunakan library klien. Untuk mengetahui informasi selengkapnya, silakan melihat dokumentasi referensi API Node.js Cloud Translation.
Untuk melakukan autentikasi ke Cloud Translation, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
const {VertexAI} = require('@google-cloud/vertexai'); // Initialize Vertex with your Cloud project and location const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'}); const model = 'gemini-1.0-pro'; // Instantiate the models const generativeModel = vertex_ai.preview.getGenerativeModel({ model: model, generationConfig: { 'candidate_count': 1, 'max_output_tokens': MAX_OUTPUT_TOKENS, 'temperature': TEMPERATURE, 'top_p': TOP_P, 'top_k': TOP_K, }, safetySettings: [ { 'category': 'HARM_CATEGORY_HATE_SPEECH', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_DANGEROUS_CONTENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_HARASSMENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' } ], }); async function generateContent() { const req = { contents: [ {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:`}]} ], }; const streamingResp = await generativeModel.generateContentStream(req); for await (const item of streamingResp.stream) { process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n'); } process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response)); } generateContent();
Python
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Python di panduan memulai Cloud Translation menggunakan library klien. Untuk mengetahui informasi selengkapnya, silakan melihat dokumentasi referensi API Python Cloud Translation.
Untuk melakukan autentikasi ke Cloud Translation, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
import base64 import vertexai from vertexai.generative_models import GenerativeModel, Part, FinishReason import vertexai.preview.generative_models as generative_models def generate(): vertexai.init(project="PROJECT_ID", location="LOCATION") model = GenerativeModel("gemini-1.0-pro") responses = model.generate_content( ["""SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:"""], generation_config=generation_config, safety_settings=safety_settings, ) print(responses) generation_config = { "candidate_count": 1, "max_output_tokens": MAX_OUTPUT_TOKENS, "temperature": TEMPERATURE, "top_p": TOP_P, "top_k": TOP_K, } safety_settings = { generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, } generate()
NMT
Gunakan Cloud Translation API dan model NMT untuk menerjemahkan teks.
REST
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_NUMBER_OR_ID: ID numerik atau alfanumerik untuk project Google Cloud Anda.
- SOURCE_LANGUAGE: (Opsional) Kode bahasa teks input. Untuk kode bahasa yang didukung, lihat Dukungan bahasa.
- TARGET_LANGUAGE: Bahasa target untuk menerjemahkan teks input. Tetapkan ke salah satu kode bahasa yang didukung.
- SOURCE_TEXT: Teks untuk diterjemahkan.
Metode HTTP dan URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
Meminta isi JSON:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Untuk mengirim permintaan Anda, perluas salah satu opsi berikut:
Anda akan melihat respons JSON yang mirip dengan berikut ini:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Node.js di panduan memulai Cloud Translation menggunakan library klien. Untuk mengetahui informasi selengkapnya, silakan melihat dokumentasi referensi API Node.js Cloud Translation.
Untuk melakukan autentikasi ke Cloud Translation, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Python
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Python di panduan memulai Cloud Translation menggunakan library klien. Untuk mengetahui informasi selengkapnya, silakan melihat dokumentasi referensi API Python Cloud Translation.
Untuk melakukan autentikasi ke Cloud Translation, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Terjemahan kustom
Sesuaikan respons dari LLM terjemahan dengan memberikan contoh terjemahan Anda sendiri. Terjemahan kustom hanya berfungsi dengan LLM terjemahan.
Anda dapat meminta terjemahan yang disesuaikan melalui konsol atau API Vertex AI Studio dengan satu perbedaan. Konsol hanya mendukung terjemahan kustom saat Anda memberikan contoh dalam file TMX atau TSV. API ini hanya mendukung terjemahan kustom jika Anda memberikan contoh (maksimal 5 pasangan kalimat) secara inline sebagai bagian dari permintaan terjemahan.
Persyaratan data
Jika Anda memberikan contoh terjemahan dalam file untuk konsol Google Cloud, contoh harus ditulis sebagai pasangan segmen dalam file TMX atau TSV. Setiap pasangan menyertakan segmen bahasa sumber dan terjemahan yang sesuai. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan contoh terjemahan dalam dokumentasi Cloud Translation.
Untuk mendapatkan hasil yang paling akurat, sertakan contoh spesifik dari berbagai skenario. Anda harus menyertakan minimal lima pasangan kalimat,tetapi tidak lebih dari 10.000 pasangan. Selain itu, pasangan segmen dapat berisi maksimal 512 karakter.
Konsol
Di bagian Cloud Translation pada konsol Google Cloud, buka halaman Translate text di Vertex AI Studio.
Di panel Run settings, konfigurasikan setelan terjemahan Anda.
- Di kolom Model, pilih Translation LLM.
- Untuk mengubah suhu, luaskan Lanjutan.
Klik Tambahkan contoh.
- Pilih file lokal atau file dari Cloud Storage. Vertex AI Studio menentukan bahasa sumber dan target dari file Anda.
- Pilih jumlah contoh yang akan digunakan model sebelum membuat respons.
Jumlah contoh yang Anda pilih akan mengurangi batas karakter input per permintaan sebesar 3.000.
Di kolom input, masukkan teks yang ingin diterjemahkan.
Klik Kirim.
Cloud Translation secara otomatis memilih jumlah kalimat referensi yang Anda tentukan yang paling mirip dengan input Anda. Model terjemahan mengidentifikasi pola dari contoh Anda, lalu menerapkan pola tersebut saat membuat respons.
Batas output per permintaan adalah 3.000 karakter. Teks apa pun yang melebihi batas ini akan dihapus.
Untuk mendapatkan kode atau perintah curl yang menunjukkan cara meminta terjemahan, klik
Get code.
API
Untuk meminta terjemahan kustom, sertakan hingga lima pasangan kalimat referensi dalam permintaan terjemahan Anda. Model terjemahan menggunakan semuanya untuk mengidentifikasi pola dari contoh Anda, lalu menerapkan pola tersebut saat membuat respons.
REST
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_NUMBER_OR_ID: ID numerik atau alfanumerik untuk project Google Cloud Anda
- LOCATION: Lokasi tempat Anda ingin menjalankan operasi ini.
Contoh,
us-central1
. - REFERENCE_SOURCE: Kalimat dalam bahasa sumber yang merupakan bagian dari pasangan kalimat referensi.
- REFERENCE_TARGET: Kalimat dalam bahasa target yang merupakan bagian dari pasangan kalimat referensi.
- SOURCE_LANGUAGE: Kode bahasa teks input.
- TARGET_LANGUAGE: Bahasa target untuk menerjemahkan teks input.
- SOURCE_TEXT: Teks dalam bahasa sumber yang akan diterjemahkan.
- MIME_TYPE (Opsional): Format teks sumber, seperti
text/html
atautext/plain
. Secara default, jenis MIME disetel ketext/plain
.
Metode HTTP dan URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
Meminta isi JSON:
"instances": [{ "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [{ "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" }] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE" }]
Untuk mengirim permintaan Anda, perluas salah satu opsi berikut:
Anda akan melihat respons JSON yang mirip dengan berikut ini:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Node.js di panduan memulai Cloud Translation menggunakan library klien. Untuk mengetahui informasi selengkapnya, silakan melihat dokumentasi referensi API Node.js Cloud Translation.
Untuk melakukan autentikasi ke Cloud Translation, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Python di panduan memulai Cloud Translation menggunakan library klien. Untuk mengetahui informasi selengkapnya, silakan melihat dokumentasi referensi API Python Cloud Translation.
Untuk melakukan autentikasi ke Cloud Translation, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm') # Initialize the request instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Anda juga dapat menggunakan Cloud Translation API untuk membuat set data dan mengimpor contoh pasangan kalimat. Saat menggunakan Cloud Translation API untuk meminta terjemahan, Anda dapat menyertakan set data untuk menyesuaikan respons. Set data akan tetap ada dan dapat digunakan kembali dengan beberapa permintaan terjemahan. Untuk mengetahui informasi selengkapnya, lihat Meminta terjemahan adaptif dalam dokumentasi Cloud Translation.