Dokumen ini memberikan jawaban atas pertanyaan umum (FAQ) tentang Gemini API, yang disusun ke dalam kategori berikut:
Perbandingan model
Apa perbedaan antara PaLM dan Gemini?
Model Gemini didesain untuk aplikasi multimodal. Model Gemini menerima perintah yang menyertakan, misalnya, teks dan gambar, lalu menampilkan respons teks. Gemini juga mendukung panggilan fungsi, yang memungkinkan developer meneruskan deskripsi fungsi, lalu model menampilkan fungsi dan parameter yang paling cocok dengan deskripsi. Kemudian, developer dapat memanggil fungsi tersebut di API dan layanan eksternal.
Model PaLM 2 Tersedia Secara Umum (GA). Model PaLM 2 dirancang untuk aplikasi bahasa dan berperforma baik pada kasus penggunaan seperti perangkuman teks dan pembuatan teks. PaLM 2 juga menawarkan dukungan penuh untuk layanan MLOps di Vertex AI, seperti perbandingan berdampingan otomatis dan pemantauan model, yang tidak tersedia di Gemini.
Dengan Vertex AI Studio, Anda dapat menyesuaikan model Gemini dan PaLM 2 dengan kontrol data penuh serta memanfaatkan dukungan kepatuhan, keamanan, privasi, dan tata kelola data. Data perintah dan penyesuaian untuk Gemini dan PaLM 2 tidak pernah digunakan untuk melatih atau meningkatkan kualitas model dasar kami.
Mengapa Anda lebih memilih PaLM daripada Gemini?
Untuk kasus penggunaan yang hanya memerlukan input-output teks (seperti ringkasan teks, pembuatan teks, dan Tanya Jawab), model PaLM 2 dapat memberikan respons yang berkualitas cukup tinggi.
Model Gemini cocok untuk kasus penggunaan yang menyertakan input multimodal, memerlukan panggilan fungsi, atau memerlukan teknik prompting yang kompleks (seperti rantai pemikiran dan petunjuk yang kompleks).
Apakah PaLM 2 tidak digunakan lagi?
Tidak ada rencana untuk menghentikan penggunaan PaLM 2.
Apa perbedaan antara Imagen di Vertex AI dan Gemini API untuk kasus penggunaan visi?
Imagen adalah model visi untuk pembuatan gambar, pengeditan, teks, dan kasus penggunaan Tanya Jawab. Sebagai bagian dari perintah Anda, Gemini dapat mengambil beberapa gambar atau video dan memberikan jawaban tentang input Anda, sedangkan Imagen hanya dapat mengambil satu gambar input. Gemini tidak mendukung pembuatan gambar atau pengeditan gambar.
Apa perbedaan antara Vertex AI Codey API dan Gemini API untuk kasus penggunaan coding?
Codey API dibuat khusus untuk pembuatan kode, penyelesaian kode, dan chat kode. Codey API didukung oleh Gemini dan model lainnya yang dikembangkan oleh Google. Anda dapat menggunakan API di seluruh siklus proses pengembangan software dengan mengintegrasikannya ke dalam IDE, alur kerja CI/CD, dasbor, dan aplikasi lainnya. Anda juga dapat menyesuaikan model dengan codebase Anda. Kami tidak merekomendasikan Gemini 1.0 Pro Vision untuk pembuatan kode.
Bagaimana cara mengirim perintah ke model Gemini 1.0 Pro atau Gemini 1.0 Pro Vision
Ada sejumlah metode yang dapat Anda gunakan untuk mengirim permintaan ke
Gemini API. Misalnya, Anda dapat menggunakan konsol Google Cloud, SDK bahasa pemrograman, atau REST API untuk mengirim permintaan ke gemini-1.0-pro
(Gemini 1.0 Pro) atau gemini-1.0-pro-vision
(Gemini 1.0 Pro Vision).
Untuk memulai, lihat Mencoba Gemini API.
Apakah penyesuaian tersedia untuk Gemini?
Anda dapat menyesuaikan versi 002
versi stabil
Gemini 1.0 Pro (gemini-1.0-pro-002
). Untuk mengetahui informasi
selengkapnya, lihat
Ringkasan penyesuaian model untuk Gemini.
Keselamatan dan penggunaan data
Mengapa respons saya diblokir?
AI generatif di Vertex AI menggunakan filter keamanan untuk mencegah respons yang berpotensi berbahaya. Anda dapat menyesuaikan nilai minimum filter keamanan ini. Untuk mengetahui informasi selengkapnya, lihat Responsible AI.
Bagaimana data input saya akan digunakan?
Google memastikan bahwa timnya mengikuti komitmen privasi AI/ML kami melalui praktik tata kelola data yang andal, yang mencakup peninjauan data yang digunakan Google Cloud dalam pengembangan produknya. Untuk mengetahui detailnya, baca AI Generatif dan Tata Kelola Data.
Apakah data saya disimpan dalam cache?
Google dapat meng-cache input dan output pelanggan untuk model Gemini guna mempercepat respons terhadap perintah berikutnya dari pelanggan. Konten dalam cache disimpan hingga 24 jam. Secara default, cache data diaktifkan untuk setiap project Google Cloud. Setelan cache yang sama untuk project Google Cloud berlaku untuk semua region. Anda dapat menggunakan perintah curl berikut untuk mendapatkan status caching, menonaktifkan caching, atau mengaktifkan kembali cache. Untuk informasi lebih lanjut, lihat Prediksi di halaman AI Generatif dan Tata Kelola Data. Saat Anda menonaktifkan atau mengaktifkan kembali cache, perubahan tersebut akan berlaku untuk semua region Google Cloud. Untuk mengetahui informasi selengkapnya tentang penggunaan Identity and Access Management untuk memberikan izin yang diperlukan untuk mengaktifkan atau menonaktifkan caching, lihat Kontrol akses Vertex AI dengan IAM.
Jalankan perintah berikut untuk menentukan apakah cache diaktifkan atau dinonaktifkan untuk sebuah project. Untuk menjalankan perintah ini, pengguna harus diberi salah satu peran
berikut: roles/aiplatform.viewer
, roles/aiplatform.user
, atau
roles/aiplatform.admin
.
Mendapatkan setelan penyimpanan dalam cache saat ini
PROJECT_ID=PROJECT_ID # Setup project_id $ gcloud config set project PROJECT_ID # GetCacheConfig $ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig # Response if caching is enabled (caching is enabled by default). { "name": "projects/PROJECT_ID/cacheConfig" } # Response if caching is disabled. { "name": "projects/PROJECT_ID/cacheConfig" "disableCache": true }
Jalankan perintah curl berikut guna mengaktifkan penyimpanan dalam cache untuk project Google Cloud. Untuk menjalankan
perintah ini, pengguna harus diberi peran administrator Vertex AI,
roles/aiplatform.admin
.
Memilih tidak menggunakan penyimpanan dalam cache
PROJECT_ID=PROJECT_ID # Setup project_id $ gcloud config set project PROJECT_ID # Setup project_id. $ gcloud config set project ${PROJECT_ID} # Opt-out of caching. $ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{ "name": "projects/PROJECT_ID/cacheConfig", "disableCache": true }' # Response. { "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}", "done": true, "response": { "@type": "type.googleapis.com/google.protobuf.Empty" } }
Jika Anda telah menonaktifkan penyimpanan cache untuk project Google Cloud dan ingin mengaktifkannya kembali, jalankan perintah curl berikut. Untuk menjalankan perintah ini, pengguna harus diberi
peran administrator Vertex AI, roles/aiplatform.admin
.
Memilih untuk menyimpan dalam cache
PROJECT_ID=PROJECT_ID LOCATION_ID="us-central1" # Setup project_id $ gcloud config set project PROJECT_ID # Setup project_id. $ gcloud config set project ${PROJECT_ID} # Opt in to caching. $ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{ "name": "projects/PROJECT_ID/cacheConfig", "disableCache": false }' # Response. { "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}", "done": true, "response": { "@type": "type.googleapis.com/google.protobuf.Empty" } }
Migrasi
Bagaimana cara memigrasikan Gemini di Google AI Studio ke Vertex AI Studio?
Bermigrasi ke platform Vertex AI Google Cloud menawarkan serangkaian alat MLOps yang menyederhanakan penggunaan, deployment, dan pemantauan model AI untuk efisiensi dan keandalan. Untuk memigrasikan pekerjaan Anda ke Vertex AI, impor dan upload data yang ada ke Vertex AI Studio serta gunakan Vertex AI Gemini API. Untuk mengetahui informasi selengkapnya, lihat Bermigrasi dari Gemini di Google AI ke Vertex AI.
Bagaimana cara beralih dari PaLM 2 ke Vertex AI Gemini API sebagai model yang mendasarinya?
Anda tidak perlu membuat perubahan arsitektur besar pada aplikasi saat beralih dari model PaLM ke model Gemini. Dari perspektif API, peralihan dari satu model ke model lainnya memerlukan perubahan satu baris kode atau update SDK. Untuk mengetahui informasi selengkapnya, lihat Bermigrasi dari PaLM API ke Vertex AI Gemini API.
Karena respons dapat bervariasi antar-model, sebaiknya lakukan pengujian cepat untuk membandingkan respons model PaLM dan Gemini guna memeriksa apakah responsnya memenuhi ekspektasi Anda.
Ketersediaan dan harga
Di lokasi mana saja Gemini tersedia?
Gemini 1.0 Pro dan Gemini 1.0 Pro Vision tersedia di wilayah Asia, AS, dan Eropa. Untuk mengetahui informasi selengkapnya, lihat AI Generatif di lokasi Vertex AI.
Apakah ada tingkat evaluasi gratis untuk Vertex AI Gemini API?
Hubungi perwakilan Google Cloud Anda untuk mengetahui informasi selengkapnya.
Berapa harga Vertex AI Gemini API?
Informasi harga untuk model Gemini tersedia di bagian Multimodal dalam Harga untuk AI Generatif di Vertex AI.
Bagaimana cara mendapatkan akses ke Gemini Ultra?
Hubungi perwakilan Akun Google Anda untuk meminta akses.
Kuota
Bagaimana cara mengatasi error kuota (429) saat membuat permintaan API?
Ada permintaan yang berlebihan atau permintaan melampaui kuota per project Anda. Pastikan rasio permintaan kurang dari kuota project Anda. Untuk melihat kuota project Anda, buka halaman Quotas di Konsol Google Cloud. Untuk mengetahui informasi selengkapnya, lihat AI Generatif di Vertex AI tentang kuota dan batas Vertex AI.
Bagaimana cara meningkatkan kuota project saya untuk Gemini?
Anda dapat meminta penambahan dari Konsol Google Cloud. Untuk mengetahui informasi selengkapnya, lihat AI Generatif di Vertex AI tentang kuota dan batas Vertex AI.