Responsible AI

Model bahasa besar (LLM) dapat menerjemahkan bahasa, meringkas teks, menghasilkan penulisan kreatif, menghasilkan kode, mendukung chatbot dan asisten virtual, serta melengkapi mesin telusur dan sistem rekomendasi. Pada saat yang sama, sebagai teknologi tahap awal, kemampuan dan penggunaannya yang berkembang menciptakan potensi penyelewengan, penyalahgunaan, dan konsekuensi yang tidak diinginkan atau tidak terduga. Model bahasa besar dapat menghasilkan output yang tidak Anda harapkan, termasuk teks yang menyinggung, tidak sensitif, atau salah secara faktual.

Selain itu, fleksibilitas LLM yang luar biasa juga menyulitkan memprediksi dengan tepat jenis output yang tidak diinginkan atau tidak terduga yang mungkin dihasilkan. Mengingat risiko dan kompleksitas ini, API AI generatif Vertex AI dirancang dengan mempertimbangkan Prinsip AI Google. Namun, penting bagi developer untuk memahami dan menguji model mereka agar dapat di-deploy dengan aman dan bertanggung jawab. Untuk membantu developer, Vertex AI Studio memiliki pemfilteran konten bawaan, dan API AI generatif kami memiliki penskoran atribut keamanan untuk membantu pelanggan menguji filter keamanan Google dan menentukan nilai minimum keyakinan yang tepat untuk kasus penggunaan dan bisnis mereka. Baca bagian Filter dan atribut keamanan untuk mempelajari lebih lanjut.

Saat API generatif kami diintegrasikan ke dalam konteks dan kasus penggunaan unik Anda, pertimbangan responsible AI tambahan dan batasan mungkin perlu dipertimbangkan. Kami mendorong pelanggan untuk mempromosikan praktik yang direkomendasikan untuk keadilan, interpretasi, privasi, dan keamanan.

Filter dan atribut keamanan

Untuk mempelajari cara menggunakan filter dan atribut keamanan untuk API, lihat halaman berikut:

Batasan model

Batasan yang dapat Anda alami saat menggunakan model AI generatif meliputi (tetapi tidak terbatas pada):

  • Kasus khusus: Kasus khusus mengacu pada situasi yang tidak biasa, jarang, atau luar biasa yang tidak terwakili dengan baik dalam data pelatihan. Kasus-kasus ini dapat menyebabkan keterbatasan dalam performa model, seperti model memiliki keyakinan berlebihan, salah tafsir konteks, atau output yang tidak sesuai.

  • Halusinasi, grounding, dan fakta: Model AI generatif dapat tidak memiliki fakta dalam pengetahuan di dunia nyata, properti fisik, atau pemahaman yang akurat. Keterbatasan ini dapat menyebabkan halusinasi model. Hal ini merujuk pada kasus yang mungkin menghasilkan output yang terdengar masuk akal tetapi salah secara faktual, tidak relevan, tidak pantas, atau tidak masuk akal. Untuk mengurangi kemungkinan ini, Anda dapat mendasarkan model pada data tertentu. Untuk mempelajari grounding di Vertex AI lebih lanjut, lihat Ringkasan grounding.

  • Kualitas dan penyesuaian data: Kualitas, akurasi, dan bias perintah atau data yang dimasukkan ke dalam model dapat memberikan dampak yang signifikan terhadap performanya. Jika pengguna memasukkan data atau perintah yang tidak akurat atau salah, model dapat memiliki performa yang kurang optimal atau output model yang salah.

  • Amplifikasi bias: Model AI generatif dapat secara tidak sengaja memperkuat bias yang ada dalam data pelatihannya, sehingga menghasilkan output yang dapat lebih jauh memperkuat prasangka sosial dan perlakuan yang tidak setara terhadap kelompok tertentu.

  • Kualitas bahasa: Meskipun model menghasilkan kemampuan multibahasa yang mengesankan pada tolok ukur yang kami evaluasi, sebagian besar tolok ukur kami (termasuk semua evaluasi keadilan) menggunakan bahasa Inggris. Untuk mengetahui informasi selengkapnya, lihat blog Riset Google.

    • Model AI generatif dapat memberikan kualitas layanan yang tidak konsisten kepada pengguna yang berbeda. Misalnya, pembuatan teks mungkin tidak efektif untuk beberapa dialek atau varietas bahasa karena data pelatihan kurang terwakili. Performa mungkin lebih buruk untuk bahasa non-Inggris atau variasi bahasa Inggris dengan representasi yang lebih sedikit.
  • Tolok ukur keadilan dan subgrup: Analisis keadilan Tim Riset Google terhadap model AI generatif kami tidak memberikan informasi lengkap mengenai berbagai potensi risiko. Misalnya, kami berfokus pada bias terkait sumbu gender, ras, etnis, dan agama, tetapi hanya melakukan analisis pada output model dan data berbahasa Inggris. Untuk mengetahui informasi selengkapnya, lihat blog Riset Google.

  • Keahlian domain terbatas: Model AI generatif mungkin tidak memiliki kedalaman pengetahuan yang diperlukan untuk memberikan respons yang akurat dan mendetail tentang topik yang sangat khusus atau teknis, sehingga menghasilkan informasi yang bersifat dangkal atau salah. Untuk kasus penggunaan khusus yang kompleks, model harus disesuaikan dengan data khusus domain, dan harus ada pengawasan manusia yang memadai dalam konteks dengan potensi untuk secara material memengaruhi hak individu.

  • Panjang dan struktur input dan output: Model AI generatif memiliki batas token input dan output maksimum. Jika input atau output melebihi batas ini, pengklasifikasi keamanan kami tidak akan diterapkan, yang pada akhirnya dapat menyebabkan performa model yang buruk. Meskipun model kami dirancang untuk menangani berbagai format teks, performanya dapat terpengaruh jika data input memiliki struktur yang tidak biasa atau kompleks.

Untuk memanfaatkan teknologi ini dengan aman dan bertanggung jawab, penting juga untuk mempertimbangkan risiko lain yang spesifik untuk kasus penggunaan, pengguna, dan konteks bisnis Anda, selain memanfaatkan perlindungan teknis bawaan.

Anda sebaiknya melakukan langkah-langkah berikut ini:

  1. Menilai risiko keamanan aplikasi Anda.
  2. Melakukan pengujian keamanan yang sesuai dengan kasus penggunaan Anda.
  3. Konfigurasikan filter keamanan jika diperlukan.
  4. Meminta masukan pengguna dan memantau konten.

Laporkan penyalahgunaan

Anda dapat melaporkan dugaan penyalahgunaan Layanan atau output yang dihasilkan yang berisi materi tidak pantas atau informasi yang tidak akurat menggunakan formulir berikut: Melaporkan dugaan penyalahgunaan di Google Cloud.

Referensi lainnya