Gemini 2.0

Model Gemini 2.0 adalah model Google terbaru yang didukung di Vertex AI. Halaman ini membahas model berikut:

Jika Anda mencari informasi tentang model Pemikiran Flash Gemini 2.0, buka dokumentasi Pemikiran Flash Gemini 2.0.

Model 2.0

2.0 Flash

Gemini 2.0 Flash adalah model terbaru kami yang tersedia secara umum dalam keluarga Gemini. Ini adalah model andalan kami untuk semua tugas harian dan menampilkan performa yang ditingkatkan serta mendukung Live API real-time. 2.0 Flash adalah jalur upgrade untuk pengguna 1.5 Flash yang menginginkan model yang sedikit lebih lambat dengan kualitas yang jauh lebih baik, atau pengguna 1.5 Pro yang menginginkan kualitas yang sedikit lebih baik dan latensi real-time dengan harga lebih murah.

Gemini 2.0 Flash memperkenalkan fitur baru dan yang ditingkatkan berikut:

  • Multimodal Live API: API baru ini memungkinkan interaksi suara dan video dua arah dengan latensi rendah dengan Gemini.
  • Kualitas: Meningkatkan performa di sebagian besar benchmark kualitas dibandingkan Gemini 1.5 Pro.
  • Kemampuan agen yang ditingkatkan: 2.0 Flash memberikan peningkatan pada pemahaman multimodal, coding, mengikuti petunjuk yang kompleks, dan panggilan fungsi. Peningkatan ini bekerja sama untuk mendukung pengalaman agen yang lebih baik.
  • Modalitas baru: Flash 2.0 memperkenalkan pembuatan gambar bawaan dan kemampuan text-to-speech yang dapat dikontrol, yang memungkinkan pengeditan gambar, pembuatan karya seni yang dilokalkan, dan penceritaan yang ekspresif.

Fitur Gemini 2.0 Flash:

  • Input multimodal
  • Output teks (ketersediaan umum) / output multimodal (pratinjau pribadi)
  • Pengoptimal perintah
  • Pembuatan terkontrol
  • Panggilan fungsi
  • Perujukan dengan Google Penelusuran
  • Eksekusi kode
  • Token jumlah

Gunakan ID model ini untuk menggunakan Gemini 2.0 Flash dengan Gen AI SDK: gemini-2.0-flash-001

Ketersediaan fitur

Fitur berikut tersedia untuk Gemini 2.0 Flash:

Fitur Tingkat ketersediaan
Pembuatan teks Tersedia secara umum
Perujukan dengan Google Penelusuran Tersedia secara umum
Gen AI SDK Tersedia secara umum
Multimodal Live API Pratinjau publik
Deteksi kotak pembatas Pratinjau publik
Pembuatan gambar Pratinjau pribadi
Pembuatan ucapan Pratinjau pribadi
  • Tersedia secara umum: Fitur ini tersedia secara publik dan didukung untuk digunakan dalam kode tingkat produksi.
  • Pratinjau publik: Fitur ini tersedia secara publik dengan kapasitas yang dikurangi. Jangan gunakan fitur yang dirilis sebagai pratinjau publik dalam kode produksi, karena tingkat dukungan dan fungsi fitur tersebut dapat berubah tanpa peringatan.
  • Pratinjau pribadi: Fitur ini hanya tersedia untuk pengguna yang tercantum dalam daftar yang diizinkan. Jangan gunakan fitur yang dirilis sebagai pratinjau pribadi dalam kode produksi, karena tingkat dukungan dan fungsi fitur tersebut dapat berubah tanpa peringatan.

Harga

Informasi tentang harga Gemini 2.0 Flash tersedia di halaman Harga kami.

Kuota dan batasan

Fitur GA di Gemini 2.0 Flash menggunakan kuota bersama dinamis.

Penyelarasan dengan Google Penelusuran di Gemini 2.0 Flash tunduk pada pembatasan kapasitas.

2.0 Flash-Lite

Gemini 2.0 Flash-Lite adalah model Flash kami yang paling cepat dan hemat biaya. Ini adalah jalur upgrade untuk pengguna 1.5 Flash yang menginginkan kualitas yang lebih baik dengan harga dan kecepatan yang sama.

Gemini 2.0 Flash-Lite mencakup:

  • Input multimodal, output teks
  • Jendela konteks input token 1 juta
  • Jendela konteks output 8 ribu token

2.0 Flash-Lite tidak menyertakan fitur Flash 2.0 berikut:

  • Pembuatan output multimodal
  • Integrasi dengan Multimodal Live API
  • Mode berpikir
  • Penggunaan alat bawaan

Gunakan ID model ini untuk menggunakan Gemini 2.0 Flash-Lite dengan Gen AI SDK: gemini-2.0-flash-lite-preview-02-05

Kuota dan batasan

Gemini 2.0 Flash-Lite dibatasi kapasitasnya hingga 60 kueri per menit selama Pratinjau Publik.

Gemini 2.0 Flash-Lite hanya tersedia di wilayah us-central1 di Vertex AI.

2.0 Pro

Gemini 2.0 Pro adalah model terkuat kami untuk coding dan pengetahuan dunia serta memiliki jendela konteks panjang 2 juta. Gemini 2.0 Pro tersedia sebagai model eksperimental di Vertex AI dan merupakan jalur upgrade untuk pengguna 1.5 Pro yang menginginkan kualitas yang lebih baik, atau yang sangat tertarik dengan konteks dan kode yang panjang.

Fitur Gemini 2.0 Pro:

  • Input multimodal
  • Output teks
  • Pengoptimal perintah
  • Pembuatan terkontrol
  • Panggilan fungsi (tidak termasuk panggilan fungsi komposisi)
  • Perujukan dengan Google Penelusuran
  • Eksekusi kode
  • Token jumlah

Gunakan ID model ini untuk menggunakan Gemini 2.0 Pro dengan Gen AI SDK: gemini-2.0-pro-exp-02-05

Kuota dan batasan

Gemini 2.0 Pro dibatasi kapasitasnya hingga 10 kueri per menit (QPM) selama Eksperimental.

Perujukan dengan Google Penelusuran di Gemini 2.0 Pro tunduk pada pembatasan kapasitas.

Google Gen AI SDK

Gen AI SDK menyediakan antarmuka terpadu ke Gemini 2.0 melalui Gemini Developer API dan Gemini API di Vertex AI. Dengan beberapa pengecualian, kode yang berjalan di satu platform akan berjalan di kedua platform. Artinya, Anda dapat membuat prototipe aplikasi menggunakan Developer API, lalu memigrasikan aplikasi ke Vertex AI tanpa menulis ulang kode.

Gen AI SDK juga mendukung model Gemini 1.5.

SDK ini umumnya tersedia di Python. Dukungan untuk Go masih dalam Pratinjau, dan dukungan Java serta JavaScript akan segera hadir.

Anda dapat mulai menggunakan SDK seperti yang ditunjukkan.

Gen AI SDK untuk Python

Pelajari cara menginstal atau mengupdate Google Gen AI SDK untuk Python.
Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi Gen AI SDK untuk Python API atau repositori GitHub python-genai.
Tetapkan variabel lingkungan untuk menggunakan Gen AI SDK dengan Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...