Gemini untuk Google Cloud dan responsible AI

Dokumen ini menjelaskan cara Gemini untuk Google Cloud dirancang dengan mempertimbangkan kemampuan, batasan, dan risiko yang terkait dengan AI generatif.

Kemampuan dan risiko model bahasa besar

Model bahasa besar (LLM) dapat melakukan banyak tugas yang berguna seperti berikut:

  • Terjemahkan bahasa.
  • Meringkas teks.
  • Membuat kode dan menulis materi iklan.
  • Memperkuat chatbot dan asisten virtual.
  • Melengkapi mesin telusur dan sistem rekomendasi.

Pada saat yang sama, kemampuan teknis LLM yang terus berkembang menciptakan potensi penyelewengan, penyalahgunaan, dan konsekuensi yang tidak diinginkan atau tidak terduga.

LLM dapat menghasilkan output yang tidak Anda harapkan, termasuk teks yang menyinggung, tidak sensitif, atau salah secara faktual. Karena LLM sangat fleksibel, mungkin sulit untuk memprediksi dengan tepat jenis output yang tidak diinginkan atau tidak terduga yang mungkin dihasilkan.

Mengingat risiko dan kompleksitas ini, Gemini untuk Google Cloud dirancang dengan mempertimbangkan prinsip AI Google. Namun, penting bagi pengguna untuk memahami beberapa batasan Gemini untuk Google Cloud agar dapat bekerja dengan aman dan bertanggung jawab.

Batasan Gemini untuk Google Cloud

Beberapa batasan yang mungkin Anda temui saat menggunakan Gemini untuk Google Cloud mencakup (tetapi tidak terbatas pada) hal berikut:

  • Kasus ekstrem. Kasus khusus mengacu pada situasi yang tidak biasa, jarang, atau luar biasa yang tidak terwakili dengan baik dalam data pelatihan. Kasus-kasus ini dapat menyebabkan keterbatasan dalam output model Gemini, seperti model memiliki keyakinan berlebihan, salah tafsir konteks, atau output yang tidak sesuai.

  • Membuat model halusinasi, perujukan, dan fakta. Model Gemini mungkin tidak memiliki dasar dan fakta dalam pengetahuan di dunia nyata, properti fisik, atau pemahaman yang akurat. Keterbatasan ini dapat menyebabkan halusinasi model, dengan Gemini untuk Google Cloud mungkin menghasilkan output yang terdengar masuk akal tetapi salah secara faktual, tidak relevan, tidak pantas, atau tidak masuk akal. Halusinasi juga dapat mencakup pembuatan link ke halaman web yang tidak ada dan tidak pernah ada. Untuk mengetahui informasi selengkapnya, lihat Menulis perintah yang lebih baik untuk Gemini untuk Google Cloud.

  • Kualitas dan penyesuaian data. Kualitas, akurasi, dan bias data prompt yang dimasukkan ke produk Gemini untuk Google Cloud dapat memberikan dampak yang signifikan terhadap performanya. Jika pengguna memasukkan perintah yang tidak akurat atau salah, Gemini untuk Google Cloud mungkin menampilkan respons yang kurang optimal atau salah.

  • Amplifikasi bias. Model bahasa dapat secara tidak sengaja memperkuat bias yang sudah ada dalam data pelatihannya, sehingga menghasilkan output yang dapat semakin memperkuat prasangka sosial dan perlakuan yang tidak setara terhadap kelompok tertentu.

  • Kualitas bahasa. Meskipun Gemini untuk Google Cloud menghasilkan kemampuan multibahasa yang mengesankan pada tolok ukur yang kami evaluasi, sebagian besar tolok ukur kami (termasuk semua evaluasi keadilan) menggunakan bahasa Inggris Amerika.

    Model bahasa mungkin memberikan kualitas layanan yang tidak konsisten kepada pengguna yang berbeda. Misalnya, pembuatan teks mungkin tidak efektif untuk beberapa dialek atau varietas bahasa karena data pelatihan kurang terwakili. Performa mungkin lebih buruk untuk bahasa non-Inggris atau variasi bahasa Inggris dengan representasi yang lebih sedikit.

  • Sub-grup dan tolok ukur keadilan. Analisis keadilan Tim Riset Google terhadap model Gemini tidak memberikan informasi lengkap mengenai berbagai potensi risiko. Misalnya, kami berfokus pada bias terkait sumbu gender, ras, etnis, dan agama, tetapi hanya melakukan analisis pada output model dan data berbahasa Inggris Amerika.

  • Keahlian domain terbatas. Model Gemini telah dilatih dengan teknologi Google Cloud, tetapi mungkin tidak memiliki pengetahuan mendalam yang diperlukan untuk memberikan respons yang akurat dan mendetail tentang topik yang sangat khusus atau teknis, sehingga menghasilkan informasi yang bersifat dangkal atau salah.

    Saat Anda menggunakan panel Gemini di konsol Google Cloud, Gemini tidak mengetahui konteks lingkungan spesifik Anda, sehingga tidak dapat menjawab pertanyaan seperti "Kapan terakhir kali saya membuat VM?"

    Dalam beberapa kasus, Gemini untuk Google Cloud mengirimkan segmen tertentu dari konteks Anda ke model untuk menerima respons khusus konteks—misalnya, saat Anda mengklik tombol Saran pemecahan masalah di halaman layanan Pelaporan Error.

Pemfilteran keamanan dan toksisitas Gemini

Perintah dan respons Gemini untuk Google Cloud diperiksa terhadap daftar atribut keamanan yang komprehensif sebagaimana berlaku untuk setiap kasus penggunaan. Atribut keamanan ini bertujuan untuk memfilter konten yang melanggar Kebijakan Penggunaan yang Dapat Diterima kami. Jika output dianggap berbahaya, respons akan diblokir.

Langkah selanjutnya