Gemini 2.0 Flash kini tersedia sebagai rilis pratinjau eksperimental melalui Vertex AI Gemini API dan Vertex AI Studio. Model ini memperkenalkan fitur baru dan kemampuan inti yang ditingkatkan:
- Multimodal Live API: API baru ini membantu Anda membuat aplikasi streaming audio dan visio real-time dengan penggunaan alat.
- Kecepatan dan performa: Gemini 2.0 Flash memiliki waktu untuk token pertama (TTFT) yang jauh lebih baik dibandingkan Gemini 1.5 Flash.
- Kualitas: Model mempertahankan kualitas yang sebanding dengan model yang lebih besar seperti Gemini 1.5 Pro.
- Pengalaman agen yang ditingkatkan: Gemini 2.0 memberikan peningkatan pada pemahaman multimodal, coding, mengikuti petunjuk yang kompleks, dan pemanggilan fungsi. Peningkatan ini bekerja sama untuk mendukung pengalaman agen yang lebih baik.
- Modalitas Baru: Gemini 2.0 memperkenalkan pembuatan gambar native dan kemampuan text-to-speech yang dapat dikontrol, yang memungkinkan pengeditan gambar, pembuatan karya seni yang dilokalkan, dan penceritaan yang ekspresif.
Untuk mendukung model baru, kami juga mengirimkan SDK baru sepenuhnya yang mendukung migrasi sederhana antara Gemini Developer API dan Gemini API di Vertex AI.
Untuk mengetahui detail teknis Gemini 2.0, lihat model Google.
Google Gen AI SDK (eksperimental)
Google Gen AI SDK baru menyediakan antarmuka terpadu ke Gemini 2.0 melalui Gemini Developer API dan Gemini API di Vertex AI. Dengan beberapa pengecualian, kode yang berjalan di satu platform akan berjalan di kedua platform. Artinya, Anda dapat membuat prototipe aplikasi menggunakan Developer API, lalu memigrasikan aplikasi ke Vertex AI tanpa menulis ulang kode.
Gen AI SDK juga mendukung model Gemini 1.5.
SDK baru ini tersedia di Python dan Go, dengan Java dan JavaScript akan segera hadir.
Anda dapat mulai menggunakan SDK seperti yang ditunjukkan di bawah ini.
- Instal SDK baru:
pip install google-genai
- Kemudian, impor library, lakukan inisialisasi klien, dan buat konten:
from google import genai
# Replace the `project` and `location` values with appropriate values for
# your project.
client = genai.Client(
vertexai=True, project='YOUR_CLOUD_PROJECT', location='us-central1'
)
response = client.models.generate_content(
model='gemini-2.0-flash-exp', contents='How does AI work?'
)
print(response.text)
(Opsional) Menetapkan variabel lingkungan
Atau, Anda dapat melakukan inisialisasi klien menggunakan variabel lingkungan. Pertama, tetapkan nilai yang sesuai dan ekspor variabel:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=YOUR_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True
Kemudian, Anda dapat melakukan inisialisasi klien tanpa argumen apa pun:
client = genai.Client()
Multimodal Live API
Multimodal Live API memungkinkan interaksi suara dan video dua arah dengan latensi rendah dengan Gemini. Dengan menggunakan Multimodal Live API, Anda dapat memberikan pengalaman percakapan suara yang alami dan mirip manusia kepada pengguna akhir, serta kemampuan untuk mengganggu respons model menggunakan perintah suara. Model ini dapat memproses input teks, audio, dan video, serta dapat memberikan output teks dan audio.
Multimodal Live API tersedia di Gemini API sebagai
metode BidiGenerateContent
dan dibuat di
WebSockets.
Untuk informasi selengkapnya, lihat panduan referensi Multimodal Live API.
Untuk contoh teks ke teks guna membantu Anda memulai Multimodal Live API, lihat hal berikut:
from google import genai
client = genai.Client()
model_id = "gemini-2.0-flash-exp"
config = {"response_modalities": ["TEXT"]}
async with client.aio.live.connect(model=model_id, config=config) as session:
message = "Hello? Gemini, are you there?"
print("> ", message, "\n")
await session.send(input=message, end_of_turn=True)
async for response in session.receive():
print(response.text)
Fitur:
- Input audio dengan output audio
- Input audio dan video dengan output audio
- Pilihan suara; lihat suara Multimodal Live API
- Durasi sesi hingga 15 menit untuk audio atau hingga 2 menit audio dan video
Untuk mempelajari kemampuan tambahan Multimodal Live API, lihat kemampuan Multimodal Live API.
Bahasa:
- Khusus bahasa Inggris
Batasan:
- Lihat Batasan Multimodal Live API.
Penelusuran sebagai alat
Dengan menggunakan Grounding dengan Google Penelusuran, Anda dapat meningkatkan akurasi dan keaktualan respons dari model. Mulai Gemini 2.0, Google Penelusuran tersedia sebagai alat. Artinya, model dapat memutuskan kapan harus menggunakan Google Penelusuran. Contoh berikut menunjukkan cara mengonfigurasi Penelusuran sebagai alat.
from google import genai
from google.genai.types import Tool, GenerateContentConfig, GoogleSearch
client = genai.Client()
model_id = "gemini-2.0-flash-exp"
google_search_tool = Tool(
google_search = GoogleSearch()
)
response = client.models.generate_content(
model=model_id,
contents="When is the next total solar eclipse in the United States?",
config=GenerateContentConfig(
tools=[google_search_tool],
response_modalities=["TEXT"],
)
)
for each in response.candidates[0].content.parts:
print(each.text)
# Example response:
# The next total solar eclipse visible in the contiguous United States will be on ...
# To get grounding metadata as web content.
print(response.candidates[0].grounding_metadata.search_entry_point.rendered_content)
Fungsi Penelusuran sebagai alat juga memungkinkan penelusuran multi-giliran dan kueri multi-alat (misalnya, menggabungkan Grounding dengan Google Penelusuran dan eksekusi kode).
Penelusuran sebagai alat memungkinkan perintah dan alur kerja kompleks yang memerlukan perencanaan, pemikiran, dan pemikiran:
- Dasar untuk meningkatkan faktualitas dan keaktualan serta memberikan jawaban yang lebih akurat
- Mengambil artefak dari web untuk melakukan analisis lebih lanjut
- Menemukan gambar, video, atau media lain yang relevan untuk membantu tugas pemikiran atau pembuatan multimodal
- Coding, pemecahan masalah teknis, dan tugas khusus lainnya
- Menemukan informasi khusus wilayah atau membantu menerjemahkan konten secara akurat
- Menemukan situs yang relevan untuk penjelajahan lebih lanjut
Deteksi kotak pembatas
Dalam peluncuran eksperimental ini, kami menyediakan alat yang canggih bagi developer untuk deteksi dan pelokalan objek dalam gambar dan video. Dengan mengidentifikasi dan menandai objek dengan kotak pembatas secara akurat, developer dapat membuka berbagai aplikasi dan meningkatkan kecerdasan project mereka.
Manfaat Utama:
- Mudah: Integrasikan kemampuan deteksi objek ke dalam aplikasi Anda dengan mudah, apa pun keahlian computer vision Anda.
- Dapat disesuaikan: Membuat kotak pembatas berdasarkan petunjuk kustom (misalnya, "Saya ingin melihat kotak pembatas semua objek hijau dalam gambar ini"), tanpa harus melatih model kustom.
Detail Teknis:
- Input: Perintah Anda dan gambar atau frame video terkait.
- Output: Bounding box dalam format
[y_min, x_min, y_max, x_max]
. Sudut kiri atas adalah asal. Sumbux
dany
masing-masing bergerak secara horizontal dan vertikal. Nilai koordinat dinormalisasi menjadi 0-1000 untuk setiap gambar. - Visualisasi: Pengguna AI Studio akan melihat kotak pembatas yang diplot dalam UI. Pengguna Vertex AI harus memvisualisasikan kotak pembatas melalui kode visualisasi kustom.
Pembuatan ucapan (akses awal/daftar yang diizinkan)
Gemini 2.0 mendukung kemampuan pembuatan multimodal baru: text to speech.
Dengan menggunakan kemampuan text-to-speech, Anda dapat meminta model untuk menghasilkan output
audio berkualitas tinggi yang terdengar seperti suara manusia (say "hi everyone"
), dan
Anda dapat lebih meningkatkan kualitas output dengan mengarahkan suara.
Pembuatan gambar (akses awal/daftar yang diizinkan)
Gemini 2.0 mendukung kemampuan untuk menghasilkan teks dengan gambar inline. Hal ini memungkinkan Anda menggunakan Gemini untuk mengedit gambar secara percakapan atau menghasilkan output multimodal (misalnya, postingan blog dengan teks dan gambar dalam satu giliran). Sebelumnya, hal ini akan memerlukan penggabungan beberapa model.
Pembuatan gambar tersedia sebagai rilis eksperimental pribadi. Fitur ini mendukung modalitas dan kemampuan berikut:
- Teks ke gambar
- Contoh perintah: "Buat gambar menara Eiffel dengan kembang api di latar belakang."
- Teks ke gambar dan teks (disisipkan)
- Contoh perintah: "Buat resep bergambar untuk paella. Buat gambar untuk menyertai teks saat Anda membuat resep."
- Gambar dan teks ke gambar dan teks (disisipkan)
- Contoh perintah: (Dengan gambar ruangan yang dilengkapi perabotan) "Sofa warna apa lagi yang cocok untuk ruangan saya? Bisakah Anda memperbarui gambarnya?"
- Pengeditan gambar (teks dan gambar ke gambar)
- Contoh perintah: "Edit gambar ini agar terlihat seperti kartun"
- Contoh perintah: [gambar kucing] + [gambar bantal] + "Buat jahitan silang kucing saya di bantal ini".
- Pengeditan gambar multi-giliran (chat)
- Contoh perintah: [upload gambar mobil biru.] "Ubah mobil ini menjadi mobil konversi". "Sekarang ubah warnanya menjadi kuning."
- Penambahan watermark
- Semua gambar yang dibuat menyertakan watermark SynthID.
Batasan:
- Pembuatan orang dan pengeditan gambar orang yang diupload tidak diizinkan.
- Untuk performa terbaik, gunakan bahasa berikut: EN, es-MX, ja-JP, zh-CN, hi-IN.
- Pembuatan gambar tidak mendukung input audio atau video.
- Pembuatan gambar mungkin tidak selalu memicu:
- Model hanya dapat menghasilkan teks. Coba minta output gambar secara eksplisit (misalnya, "buat gambar", "berikan gambar saat Anda melakukannya", "perbarui gambar").
- Model mungkin berhenti menghasilkan di tengah jalan. Coba lagi atau coba perintah lain.
Harga
Anda tidak akan ditagih untuk penggunaan model Google eksperimental.