Informasi model

Vertex AI menampilkan daftar model dasar yang terus bertambah yang dapat Anda uji, deploy, dan sesuaikan untuk digunakan dalam aplikasi berbasis AI. Model dasar telah disesuaikan untuk kasus penggunaan tertentu dan ditawarkan dengan berbagai titik harga. Halaman ini merangkum model yang tersedia di berbagai API dan memberikan panduan tentang model yang harus dipilih berdasarkan kasus penggunaan.

Untuk mempelajari lebih lanjut semua API dan model AI di Vertex AI, lihat Mempelajari API dan model AI.

API model dasar

Vertex AI memiliki API model dasar berikut:

  • Gemini API (Teks, gambar, audio, video, PDF, kode, dan chat multimodal)
  • PaLM API (Teks, chat, dan embedding)
  • Codey API (Pembuatan kode, chat kode, dan penyelesaian kode)
  • Imagen API (Pembuatan gambar, pengeditan gambar, pemberian teks gambar, penjawaban pertanyaan visual, dan penyematan multimodal)

Model Gemini API

Tabel berikut meringkas model yang tersedia di Gemini API:

Nama model Deskripsi Properti model Dukungan penyesuaian
Gemini 1.5 Pro (Pratinjau)
(gemini-1.5-pro)
Model multimodal yang mendukung penambahan file gambar, audio, video, dan PDF dalam perintah teks atau chat untuk respons teks atau kode. Gemini 1.5 Pro mendukung pemahaman konteks panjang hingga 1 juta token. Total token maksimum (input dan output): 1 juta
Token output maksimum: 8.192
Ukuran gambar mentah maksimum: 20 MB
Ukuran gambar maksimum yang dienkode menggunakan base64: 7 MB
Gambar maksimum per perintah: 3.000
Durasi video maksimum: 1 jam
Maksimal video per perintah: 10
Durasi maksimum audio: sekitar 5,4 jam: Maks. 8,4 jam untuk audio: Maks. 8,4 jam


Diawasi: Tidak
RLHF: Tidak
Distilasi: Tidak
Gemini 1.0 Pro
(gemini-1.0-pro)
Dirancang untuk menangani tugas natural language, chat teks dan kode multigiliran, serta pembuatan kode. Gunakan Gemini 1.0 Pro untuk perintah yang hanya berisi teks. Total token maksimum (input dan output): 32.760
Token output maksimum: 8.192
Data pelatihan: Hingga Feb 2023
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Gemini 1.0 Pro Vision
(gemini-1.0-pro-vision)
Model multimodal yang mendukung penambahan gambar, PDF, dan video dalam perintah teks atau chat untuk respons teks atau kode. Gunakan prompt multimodal Gemini 1.0 Pro Vision. Total token maksimum (input dan output): 16.384
Token output maksimum: 2.048
Ukuran gambar maksimum: Tidak ada batas
Maksimal gambar per perintah: 16
Durasi video maksimum: 2 menit
Maksimal video per perintah: 1
Data pelatihan: Hingga Feb 2023
Diawasi: Tidak
RLHF: Tidak
Distilasi: Tidak
Gemini 1.0 Ultra (GA dengan daftar yang diizinkan) Model multimodal Google yang paling mumpuni, yang dioptimalkan untuk tugas-tugas kompleks termasuk petunjuk, kode, dan penalaran, dengan dukungan untuk berbagai bahasa. Gemini 1.0 Ultra tersedia secara umum (GA) untuk sekelompok pelanggan tertentu. Input token maksimum: 8.192
Output token maksimum: 2.048
Diawasi: Tidak
RLHF: Tidak
Distilasi: Tidak
Gemini 1.0 Ultra Vision (GA dengan daftar yang diizinkan) Model visi multimodal Google yang paling mumpuni, yang dioptimalkan untuk mendukung teks, gambar, video, dan chat multi-giliran. Gemini 1.0 Ultra Vision tersedia secara umum (GA) untuk sekelompok pelanggan tertentu. Input token maksimum: 8.192
Output token maksimum: 2.048
Diawasi: Tidak
RLHF: Tidak
Distilasi: Tidak

Model PaLM API

Tabel berikut merangkum model yang tersedia di PaLM API:

Nama model Deskripsi Properti model Dukungan penyesuaian
PaLM 2 untuk Teks
(text-bison)
Disesuaikan untuk mengikuti petunjuk natural language dan cocok untuk berbagai tugas bahasa, seperti klasifikasi, ringkasan, dan ekstraksi. Token input maksimum: 8192
Token output maksimum: 1024
Data pelatihan: Hingga Feb 2023
Diawasi: Yes
RLHF: Yes (Pratinjau)
Distilasi: Tidak
PaLM 2 untuk Teks (text-unicorn) Model teks paling canggih dalam kelompok model PaLM untuk digunakan dengan tugas natural language yang kompleks. Token input maksimum: 8192
Token output maksimum: 1024
Data pelatihan: Hingga Feb 2023
Diawasi: Tidak
RLHF: Tidak
Distilasi: Ya (Pratinjau)
PaLM 2 untuk Teks 32k
(text-bison-32k)
Disesuaikan untuk mengikuti petunjuk natural language dan cocok untuk berbagai tugas bahasa. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Data pelatihan: Hingga Agustus 2023
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
PaLM 2 untuk Chat
(chat-bison)
Disesuaikan untuk kasus penggunaan percakapan multi-giliran. Token input maksimum: 8192
Token output maksimum: 2048
Data pelatihan: Hingga Feb 2023
Putaran maksimum : 2500
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
PaLM 2 untuk Chat 32 ribu
(chat-bison-32k)
Disesuaikan untuk kasus penggunaan percakapan multi-giliran. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Data pelatihan: Hingga Agustus 2023
Giliran maksimum : 2.500
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Embedding untuk Teks
(textembedding-gecko)
Menampilkan embedding model untuk input teks. 3072 token input dan menghasilkan output embedding vektor 768 dimensi. Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Embedding untuk Teks multibahasa
(textembedding-gecko-multilingual)
Menampilkan embedding model untuk input teks yang mendukung lebih dari 100 bahasa 3072 token input dan menghasilkan output embedding vektor 768 dimensi. Diawasi: Ya (Pratinjau)
RLHF: Tidak
Distilasi: Tidak

Model Codey API

Tabel berikut merangkum model yang tersedia di Codey API:

Nama model Deskripsi Properti model Dukungan penyesuaian
Codey untuk Pembuatan Kode
(code-bison)
Model yang telah disesuaikan untuk menghasilkan kode berdasarkan deskripsi natural language dari kode yang diinginkan. Misalnya, ini dapat menghasilkan pengujian unit untuk suatu fungsi. Token input maksimum: 6144
Token output maksimum: 1024
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Codey untuk Pembuatan Kode 32k
(code-bison-32k)
Model yang telah disesuaikan untuk menghasilkan kode berdasarkan deskripsi natural language dari kode yang diinginkan. Misalnya, ini dapat menghasilkan pengujian unit untuk suatu fungsi. Token maksimum (input + output): 32.768
Token output maks: 8.192
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Codey untuk Chat Kode
(codechat-bison)
Model yang disesuaikan untuk percakapan chatbot yang membantu pertanyaan terkait kode. Token input maksimum: 6144
Token output maksimum: 1024
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Codey untuk Chat Kode 32k
(codechat-bison-32k)
Model yang disesuaikan untuk percakapan chatbot yang membantu pertanyaan terkait kode. Token maksimum (input + output): 32.768
Token output maks: 8.192
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Codey untuk Penyelesaian Kode
(code-gecko)
Model yang disesuaikan untuk menyarankan penyelesaian kode berdasarkan konteks dalam kode yang ditulis. Token input maksimum: 2048
Token output maksimum: 64
Diawasi: Tidak
RLHF: Tidak
Distilasi: Tidak

Model Imagen API

Tabel berikut merangkum model yang tersedia di Imagen API:

Nama model Deskripsi Properti model Dukungan penyesuaian
Image untuk Pembuatan Gambar
(imagegeneration)
Model ini mendukung pembuatan gambar dan dapat membuat aset visual berkualitas tinggi dalam hitungan detik. Permintaan maksimum per menit per project: 100
Gambar maksimum yang dihasilkan: 8
Gambar dasar maksimum (pengeditan/penskalaan): 10 MB
Resolusi gambar yang dihasilkan: 1024x1024 piksel
Diawasi: Tidak
RLHF: Tidak
Embeddings untuk Multimodal
(multimodalembedding)
Model ini menghasilkan vektor berdasarkan input yang Anda berikan, yang dapat mencakup kombinasi gambar dan teks. Permintaan maksimum per menit per project: 120
Panjang teks maksimum: 32 token
Bahasa: Inggris
Ukuran gambar maksimum: 20 MB
Diawasi: Tidak
RLHF: Tidak
Pemberian teks pada gambar
(imagetext)
Model yang mendukung pemberian teks gambar. Model ini menghasilkan teks dari gambar yang Anda berikan berdasarkan bahasa yang ditentukan. Permintaan maksimum per menit per project: 500
Bahasa: Inggris, Prancis, Jerman, Italia, Spanyol
Ukuran gambar maksimum: 10 MB
Jumlah teks maksimum: 3
Diawasi: Tidak
RLHF: Tidak
Visualisasi Tanya Jawab - VQA
(imagetext)
Model yang mendukung tanya jawab gambar. Permintaan maksimum per menit per project: 500
Bahasa: Inggris
Ukuran gambar maksimum: 10 MB
Jumlah maksimum jawaban: 3
Diawasi: Tidak
RLHF: Tidak

Model MedLM API

Tabel berikut merangkum model yang tersedia di MedLM API:

Nama model Deskripsi Properti model Dukungan penyesuaian
MedLM-medium (medlm-medium) Rangkaian model dan API yang disesuaikan secara medis yang mematuhi HIPAA dan didukung oleh Tim Riset Google. Model ini membantu praktisi layanan kesehatan dengan pertanyaan dan jawaban medis (Tanya Jawab) serta merangkum dokumen medis dan layanan kesehatan. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Bahasa: Inggris
Diawasi: Tidak
RLHF: Tidak
MedLM-large (medlm-large) Rangkaian model dan API yang disesuaikan secara medis yang mematuhi HIPAA dan didukung oleh Tim Riset Google. Model ini membantu praktisi layanan kesehatan dengan pertanyaan dan jawaban medis (Tanya Jawab) serta merangkum dokumen medis dan layanan kesehatan. Token input maksimum: 8.192
Token output maksimum: 1.024
Bahasa: Inggris
Diawasi: Tidak
RLHF: Tidak

Dukungan bahasa

Vertex AI PaLM API dan Vertex AI Gemini API Tersedia secara Umum (GA) untuk bahasa berikut:

  • Arab (ar)
  • Bengali (bn)
  • Bulgaria (bg)
  • China (aksara sederhana dan tradisional) (zh)
  • Kroasia (hr)
  • Ceko (cs)
  • Denmark (da)
  • Belanda (nl)
  • Inggris (en)
  • Estonia (et)
  • Finlandia (fi)
  • Prancis (fr)
  • Jerman (de)
  • Yunani (el)
  • Ibrani (iw)
  • Hindi (hi)
  • Hungaria (hu)
  • Indonesia (id)
  • Italia (it)
  • Jepang (ja)
  • Korea (ko)
  • Latvia (lv)
  • Lituania (lt)
  • Norwegia (no)
  • Polandia (pl)
  • Portugis (pt)
  • Rumania (ro)
  • Rusia (ru)
  • Serbia (sr)
  • Slovakia (sk)
  • Slovenia (sl)
  • Spanyol (es)
  • Swahili (sw)
  • Swedia (sv)
  • Thai (th)
  • Turki (tr)
  • Ukraina (uk)
  • Vietnam (vi)

Untuk mengakses bahasa lain, hubungi perwakilan Google Cloud Anda.

Mempelajari semua model di Model Garden

Model Garden adalah platform yang membantu Anda menemukan, menguji, menyesuaikan, dan men-deploy model & aset OSS tertentu serta eksklusif Google. Untuk mempelajari model dan API AI generatif yang tersedia di Vertex AI, buka Model Garden di Konsol Google Cloud.

Buka Model Garden

Untuk mempelajari lebih lanjut Model Garden, termasuk model dan kemampuan yang tersedia, lihat Mempelajari model AI di Model Garden.

Langkah selanjutnya