Model AI Mistral

Model AI Mistral di Vertex AI menawarkan model terkelola sepenuhnya dan tanpa server sebagai API. Untuk menggunakan model Mistral AI di Vertex AI, kirim permintaan langsung ke endpoint Vertex AI API. Karena model Mistral AI menggunakan API terkelola, Anda tidak perlu menyediakan atau mengelola infrastruktur.

Anda dapat melakukan streaming respons untuk mengurangi persepsi latensi pengguna akhir. Respons streaming menggunakan peristiwa yang dikirim server (SSE) untuk melakukan streaming respons secara bertahap.

Anda membayar model AI Mistral saat menggunakannya (bayar sesuai penggunaan). Untuk harga bayar sesuai penggunaan, lihat harga model Mistral AI di halaman harga Vertex AI.

Model AI Mistral yang tersedia

Model berikut tersedia dari Mistral AI untuk digunakan di Vertex AI. Untuk mengakses model Mistral AI, buka kartu model Model Garden-nya.

Mistral Besar (24,11)

Mistral Large (24.11) adalah versi terbaru model Large Mistral AI yang kini memiliki kemampuan pemanggilan fungsi dan penalaran yang ditingkatkan.

  • Berfokus pada agen: kemampuan agen terbaik di kelasnya dengan panggilan fungsi native dan output JSON.
  • Multibahasa secara desain: puluhan bahasa didukung, termasuk bahasa Inggris, Prancis, Jerman, Spanyol, Italia, China, Jepang, Korea, Portugis, Belanda, dan Polandia
  • Mahir dalam coding: terlatih dalam lebih dari 80 bahasa coding seperti Python, Java, C, C++, JavaScript, dan Bash. Juga dilatih pada bahasa yang lebih spesifik seperti Swift dan Fortran
  • Logika lanjutan: kemampuan matematika dan logika canggih.
Buka kartu model Mistral Large (24.11)

Mistral Large (2407)

Mistral Large (2407) adalah model unggulan Mistral AI untuk pembuatan teks. Model ini mencapai kemampuan penalaran tingkat atas dan dapat digunakan untuk tugas multibahasa yang kompleks, termasuk pemahaman teks, transformasi, dan pembuatan kode. Untuk mengetahui informasi selengkapnya, lihat postingan Mistral AI tentang Mistral Large (2407).

Mistral Large (2407) unggul dalam dimensi berikut:

  • Multibahasa secara desain: puluhan bahasa didukung, termasuk bahasa Inggris, Prancis, Jerman, Spanyol, Italia, China, Jepang, Korea, Portugis, Belanda, dan Polandia.
  • Mahir dalam coding: terlatih dalam lebih dari 80 bahasa coding seperti Python, Java, C, C++, JavaScript, dan Bash. Juga dilatih pada bahasa yang lebih spesifik seperti Swift dan Fortran.
  • Berfokus pada agen: kemampuan agen terbaik di kelasnya dengan panggilan fungsi native dan output JSON.
  • Logika Lanjutan: kemampuan matematika dan logika canggih.
Buka kartu model Mistral Large (2407)

Mistral Nemo

Mistral Nemo adalah model eksklusif Mistral AI yang paling hemat biaya. Ini adalah pilihan ideal untuk beban kerja latensi rendah dan tugas sederhana yang dapat dilakukan secara massal, seperti klasifikasi, dukungan pelanggan, dan pembuatan teks. Untuk informasi selengkapnya, lihat dokumentasi Mistral AI.

Mistral Nemo dioptimalkan untuk kasus penggunaan berikut:

  • Membuat dan mengklasifikasikan teks.
  • Membuat agen untuk skenario dukungan pelanggan.
  • Membuat kode, penyelesaian, peninjauan, dan komentar. Mendukung semua bahasa coding mainstream.
Buka kartu model Mistral Nemo

Codestral

Codestral adalah model generatif yang telah dirancang dan dioptimalkan secara khusus untuk tugas pembuatan kode, termasuk fill-in-the-middle dan penyelesaian kode. Codestral dilatih dengan lebih dari 80 bahasa pemrograman, sehingga dapat berperforma baik pada bahasa yang umum dan kurang umum. Untuk mengetahui informasi selengkapnya, lihat dokumentasi pembuatan kode Mistral AI.

Codestral dioptimalkan untuk kasus penggunaan berikut:

  • Membuat kode, memberikan penyelesaian kode, saran, dan terjemahan.
  • Memahami kode Anda untuk memberikan ringkasan dan penjelasan tentang kode Anda.
  • Meninjau kualitas kode dengan membantu memfaktorkan ulang kode, memperbaiki bug, dan membuat kasus pengujian.
Buka kartu model Codestral

Menggunakan model AI Mistral

Saat Anda mengirim permintaan untuk menggunakan model Mistral AI, gunakan nama model berikut:

  • Untuk Mistral Large (24.11), gunakan mistral-large-2411.
  • Untuk Mistral Large (2407), gunakan mistral-large@2407.
  • Untuk Mistral Nemo, gunakan mistral-nemo@2407.
  • Untuk Codestral, gunakan codestral@2405.

Untuk mengetahui informasi selengkapnya tentang cara menggunakan Mistral AI SDK, lihat dokumentasi Vertex AI Mistral AI.

Sebelum memulai

Untuk menggunakan model Mistral AI dengan Vertex AI, Anda harus melakukan langkah-langkah berikut. Vertex AI API (aiplatform.googleapis.com) harus diaktifkan untuk menggunakan Vertex AI. Jika sudah memiliki project dengan Vertex AI API yang diaktifkan, Anda dapat menggunakan project tersebut, bukan membuat project baru.

Pastikan Anda memiliki izin yang diperlukan untuk mengaktifkan dan menggunakan model partner. Untuk mengetahui informasi selengkapnya, lihat Memberikan izin yang diperlukan.

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.

    Buka pemilih project

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Aktifkan API Vertex AI.

    Mengaktifkan API

  5. Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.

    Buka pemilih project

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Aktifkan API Vertex AI.

    Mengaktifkan API

  8. Buka salah satu kartu model Mistral AI Model Garden, lalu klik Aktifkan.

Melakukan panggilan streaming ke model AI Mistral

Contoh berikut melakukan panggilan streaming ke model Mistral AI.

REST

Setelah menyiapkan lingkungan, Anda dapat menggunakan REST untuk menguji perintah teks. Contoh berikut mengirimkan permintaan ke endpoint model penayang.

Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:

  • LOCATION: Region yang mendukung model AI Mistral.
  • MODEL: Nama model yang ingin Anda gunakan. Dalam isi permintaan, kecualikan nomor versi model @.
  • ROLE: Peran yang terkait dengan pesan. Anda dapat menentukan user atau assistant. Pesan pertama harus menggunakan peran user. Model beroperasi dengan giliran user dan assistant yang bergantian. Jika pesan akhir menggunakan peran assistant, konten respons akan langsung berlanjut dari konten dalam pesan tersebut. Anda dapat menggunakannya untuk membatasi bagian respons model.
  • STREAM: Boolean yang menentukan apakah respons di-streaming atau tidak. Streaming respons Anda untuk mengurangi persepsi latensi penggunaan akhir. Tetapkan ke true untuk melakukan streaming respons dan false untuk menampilkan respons sekaligus.
  • CONTENT: Konten, seperti teks, dari pesan user atau assistant.
  • MAX_OUTPUT_TOKENS: Jumlah maksimum token yang dapat dibuat dalam respons. Token terdiri dari sekitar 3,5 karakter. 100 token setara dengan sekitar 60-80 kata.

    Tentukan nilai yang lebih rendah untuk respons yang lebih singkat dan nilai yang lebih tinggi untuk respons yang berpotensi lebih panjang.

Metode HTTP dan URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/mistralai/models/MODEL:streamRawPredict

Isi JSON permintaan:

{
"model": MODEL,
  "messages": [
   {
    "role": "ROLE",
    "content": "CONTENT"
   }],
  "max_tokens": MAX_TOKENS,
  "stream": true
}

Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:

curl

Simpan isi permintaan dalam file bernama request.json, dan jalankan perintah berikut:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/mistralai/models/MODEL:streamRawPredict"

PowerShell

Simpan isi permintaan dalam file bernama request.json, dan jalankan perintah berikut:

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/mistralai/models/MODEL:streamRawPredict" | Select-Object -Expand Content

Anda akan melihat respons JSON yang mirip seperti berikut:

Melakukan panggilan unary ke model AI Mistral

Contoh berikut membuat panggilan unary ke model Mistral AI.

REST

Setelah menyiapkan lingkungan, Anda dapat menggunakan REST untuk menguji perintah teks. Contoh berikut mengirimkan permintaan ke endpoint model penayang.

Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:

  • LOCATION: Region yang mendukung model AI Mistral.
  • MODEL: Nama model yang ingin Anda gunakan. Dalam isi permintaan, kecualikan nomor versi model @.
  • ROLE: Peran yang terkait dengan pesan. Anda dapat menentukan user atau assistant. Pesan pertama harus menggunakan peran user. Model beroperasi dengan giliran user dan assistant yang bergantian. Jika pesan akhir menggunakan peran assistant, konten respons akan langsung berlanjut dari konten dalam pesan tersebut. Anda dapat menggunakannya untuk membatasi bagian respons model.
  • STREAM: Boolean yang menentukan apakah respons di-streaming atau tidak. Streaming respons Anda untuk mengurangi persepsi latensi penggunaan akhir. Tetapkan ke true untuk melakukan streaming respons dan false untuk menampilkan respons sekaligus.
  • CONTENT: Konten, seperti teks, dari pesan user atau assistant.
  • MAX_OUTPUT_TOKENS: Jumlah maksimum token yang dapat dibuat dalam respons. Token terdiri dari sekitar 3,5 karakter. 100 token setara dengan sekitar 60-80 kata.

    Tentukan nilai yang lebih rendah untuk respons yang lebih singkat dan nilai yang lebih tinggi untuk respons yang berpotensi lebih panjang.

Metode HTTP dan URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/mistralai/models/MODEL:rawPredict

Isi JSON permintaan:

{
"model": MODEL,
  "messages": [
   {
    "role": "ROLE",
    "content": "CONTENT"
   }],
  "max_tokens": MAX_TOKENS,
  "stream": false
}

Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:

curl

Simpan isi permintaan dalam file bernama request.json, dan jalankan perintah berikut:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/mistralai/models/MODEL:rawPredict"

PowerShell

Simpan isi permintaan dalam file bernama request.json, dan jalankan perintah berikut:

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/mistralai/models/MODEL:rawPredict" | Select-Object -Expand Content

Anda akan melihat respons JSON yang mirip seperti berikut:

Ketersediaan dan kuota region model Mistral AI

Untuk model Mistral AI, kuota berlaku untuk setiap region tempat model tersedia. Kuota ditentukan dalam kueri per menit (QPM) dan token per menit (TPM). TPM mencakup token input dan output.

Region yang didukung, kuota default, dan panjang konteks maksimum untuk setiap model Mistral AI tercantum dalam tabel berikut:

Mistral Besar (24,11)

Wilayah Sistem kuota Panjang konteks yang didukung
us-central1 60 QPM, 200.000 TPM 128.000 token
europe-west4 60 QPM, 200.000 TPM 128.000 token

Mistral Large (2407)

Wilayah Sistem kuota Panjang konteks yang didukung
us-central1 60 QPM, 200.000 TPM 128.000 token
europe-west4 60 QPM, 200.000 TPM 128.000 token

Mistral Nemo

Wilayah Sistem kuota Panjang konteks yang didukung
us-central1 60 QPM, 200.000 TPM 128.000 token
europe-west4 60 QPM, 200.000 TPM 128.000 token

Codestral

Wilayah Sistem kuota Panjang konteks yang didukung
us-central1 60 QPM, 200.000 TPM 32.000 token
europe-west4 60 QPM, 200.000 TPM 32.000 token

Jika ingin meningkatkan kuota untuk AI Generatif di Vertex AI, Anda dapat menggunakan konsol Google Cloud untuk meminta penambahan kuota. Untuk mempelajari kuota lebih lanjut, lihat Mengelola kuota.