Menggunakan model terbuka Gemma

Gemma adalah sekumpulan model terbuka kecerdasan buatan (AI) generatif yang ringan. Model Gemma tersedia untuk dijalankan di aplikasi dan di hardware, perangkat seluler, atau layanan yang dihosting. Anda juga dapat menyesuaikan model ini menggunakan teknik penyesuaian sehingga model tersebut unggul dalam melakukan tugas yang penting bagi Anda dan pengguna. Model Gemma didasarkan pada model Gemini dan ditujukan untuk komunitas pengembangan AI agar dapat diperluas dan dikembangkan lebih lanjut.

Penyesuaian dapat membantu meningkatkan performa model dalam tugas tertentu. Karena model dalam keluarga model Gemma memiliki bobot terbuka, Anda dapat menyesuaikannya menggunakan framework AI pilihan Anda dan Vertex AI SDK. Anda dapat membuka contoh notebook untuk menyesuaikan model Gemma menggunakan link yang tersedia di kartu model Gemma di Model Garden.

Model Gemma berikut tersedia untuk digunakan dengan Vertex AI. Untuk mempelajari lebih lanjut dan menguji model Gemma, lihat kartu model Model Garden-nya.

Nama model Kasus penggunaan Kartu model Model Garden
Gemma 2 Paling cocok untuk pembuatan, peringkasan, dan ekstraksi teks. Buka kartu model Gemma 2
Gemma Paling cocok untuk pembuatan, peringkasan, dan ekstraksi teks. Buka kartu model Gemma
CodeGemma Paling cocok untuk pembuatan dan penyelesaian kode. Buka kartu model CodeGemma
PaliGemma Paling cocok untuk tugas pemberian teks pada gambar serta tugas pertanyaan dan jawaban visual. Buka kartu model PaliGemma

Berikut adalah beberapa opsi tempat Anda dapat menggunakan Gemma:

Menggunakan Gemma dengan Vertex AI

Vertex AI menawarkan platform terkelola untuk membangun dan menskalakan project machine learning dengan cepat tanpa memerlukan keahlian MLOps internal. Anda dapat menggunakan Vertex AI sebagai aplikasi downstream yang menayangkan model Gemma. Misalnya, Anda dapat memindahkan bobot dari implementasi Keras Gemma. Selanjutnya, Anda dapat menggunakan Vertex AI untuk menayangkan versi Gemma tersebut guna mendapatkan prediksi. Sebaiknya gunakan Vertex AI jika Anda menginginkan kemampuan MLOps menyeluruh, fitur ML nilai tambah, dan pengalaman tanpa server untuk pengembangan yang disederhanakan.

Untuk mulai menggunakan Gemma, lihat notebook berikut:

Menggunakan Gemma di produk Google Cloud lainnya

Anda dapat menggunakan Gemma dengan produk Google Cloud lainnya, seperti Google Kubernetes Engine dan Dataflow.

Menggunakan Gemma dengan GKE

Google Kubernetes Engine (GKE) adalah solusi Google Cloud untuk Kubernetes terkelola yang memberikan skalabilitas, keamanan, ketahanan, dan efektivitas biaya. Sebaiknya gunakan opsi ini jika Anda sudah memiliki investasi Kubernetes, organisasi Anda memiliki keahlian MLOps internal, atau jika Anda memerlukan kontrol terperinci atas beban kerja AI/ML yang kompleks dengan persyaratan keamanan, pipeline data, dan pengelolaan resource yang unik. Untuk mempelajari lebih lanjut, lihat tutorial berikut dalam dokumentasi GKE:

Menggunakan Gemma dengan Dataflow

Anda dapat menggunakan model Gemma dengan Dataflow untuk analisis sentimen. Gunakan Dataflow untuk menjalankan pipeline inferensi yang menggunakan model Gemma. Untuk mempelajari lebih lanjut, lihat Menjalankan pipeline inferensi dengan model terbuka Gemma.

Menggunakan Gemma dengan Colab

Anda dapat menggunakan Gemma dengan Colaboratory untuk membuat solusi Gemma. Di Colab, Anda dapat menggunakan Gemma dengan opsi framework seperti PyTorch dan JAX. Untuk mempelajari lebih lanjut, lihat:

Ukuran dan kemampuan model Gemma

Model Gemma tersedia dalam beberapa ukuran sehingga Anda dapat membuat solusi AI generatif berdasarkan resource komputasi yang tersedia, kemampuan yang Anda butuhkan, dan tempat Anda ingin menjalankannya. Setiap model tersedia dalam versi yang di-tuning dan tidak di-tuning:

  • Terlatih sebelumnya - Versi model ini tidak dilatih pada tugas atau petunjuk tertentu di luar set pelatihan data inti Gemma. Sebaiknya jangan gunakan model ini tanpa melakukan beberapa penyesuaian.

  • Disesuaikan dengan petunjuk - Versi model ini dilatih dengan interaksi bahasa manusia sehingga dapat berpartisipasi dalam percakapan, mirip dengan bot chat dasar.

  • Mix fine-tuned - Versi model ini disesuaikan dengan campuran set data akademis dan menerima perintah bahasa alami.

Ukuran parameter yang lebih rendah berarti persyaratan resource yang lebih rendah dan lebih banyak fleksibilitas deployment.

Nama model Ukuran parameter Input Output Versi yang dioptimalkan Platform yang diinginkan
Gemma 2
Gemma 27B 27 miliar Teks Teks
  • Model terlatih
  • Disesuaikan dengan petunjuk
Server besar atau cluster server
Gemma 9B 9 miliar Teks Teks
  • Model terlatih
  • Disesuaikan dengan petunjuk
Komputer desktop dan server kelas atas
Gemma 2B 2 miliar Teks Teks
  • Model terlatih
  • Disesuaikan dengan petunjuk
Perangkat seluler dan laptop
Gemma
Gemma 7B 7 miliar Teks Teks
  • Model terlatih
  • Disesuaikan dengan petunjuk
Komputer desktop dan server kecil
Gemma 2B 2,2 miliar Teks Teks
  • Model terlatih
  • Disesuaikan dengan petunjuk
Perangkat seluler dan laptop
CodeGemma
CodeGemma 7B 7 miliar Teks Teks
  • Model terlatih
  • Disesuaikan dengan petunjuk
Komputer desktop dan server kecil
CodeGemma 2B 2 miliar Teks Teks
  • Model terlatih
Komputer desktop dan server kecil
PaliGemma
PaliGemma 3B 3 miliar Teks Teks
  • Model terlatih
  • Mix yang telah disesuaikan
Komputer desktop dan server kecil

Gemma telah diuji menggunakan hardware TPU v5e khusus Google dan hardware GPU L4(G2 Standard), A100(A2 Standard), H100(A3 High) NVIDIA.

Langkah selanjutnya