Mulai 29 April 2025, model Gemini 1.5 Pro dan Gemini 1.5 Flash tidak tersedia di project yang belum pernah menggunakan model ini, termasuk project baru. Untuk mengetahui detailnya, lihat Versi dan siklus proses model.
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Model bahasa besar (LLM) dapat menerjemahkan bahasa, meringkas teks, menghasilkan
penulisan kreatif, menghasilkan kode, mendukung chatbot dan asisten virtual, serta
melengkapi mesin telusur dan sistem rekomendasi. Pada saat yang sama, sebagai
teknologi tahap awal, kemampuan dan penggunaannya yang berkembang menciptakan potensi penyelewengan, penyalahgunaan, dan konsekuensi yang tidak diinginkan atau tidak terduga. Model
bahasa besar dapat menghasilkan output yang tidak Anda harapkan, termasuk teks yang
menyinggung, tidak sensitif, atau salah secara faktual.
Selain itu, fleksibilitas LLM yang luar biasa juga menyulitkan
memprediksi dengan tepat jenis output yang tidak diinginkan atau tidak terduga yang mungkin
dihasilkan. Mengingat risiko dan kompleksitas ini, API AI generatif Vertex AI dirancang dengan mempertimbangkan
Prinsip AI Google. Namun, penting bagi developer untuk memahami
dan menguji model mereka agar dapat di-deploy dengan aman dan bertanggung jawab. Untuk membantu developer, Vertex AI Studio memiliki pemfilteran konten bawaan, dan API AI generatif kami memiliki penskoran atribut keamanan untuk membantu pelanggan menguji filter keamanan Google dan menentukan nilai minimum keyakinan yang tepat untuk kasus penggunaan dan bisnis mereka.
Baca bagian Filter dan atribut keamanan untuk mempelajari lebih lanjut.
Saat API generatif kami diintegrasikan ke dalam konteks dan kasus penggunaan unik Anda, pertimbangan responsible AI tambahan dan batasan mungkin perlu dipertimbangkan. Kami mendorong pelanggan untuk mempromosikan praktik yang direkomendasikan untuk keadilan, penafsiran, privasi, dan keamanan.
Filter dan atribut keamanan
Untuk mempelajari cara menggunakan filter dan atribut keamanan untuk API, lihat Gemini API di Vertex AI.
Batasan model
Keterbatasan yang dapat Anda alami saat menggunakan model AI generatif meliputi (tetapi tidak terbatas pada):
Kasus khusus: Kasus khusus mengacu pada situasi yang tidak biasa, jarang, atau luar biasa yang tidak terwakili dengan baik dalam data pelatihan. Kasus-kasus ini dapat menyebabkan
keterbatasan dalam performa model, seperti keyakinan berlebihan model,
salah tafsir konteks, atau output yang tidak sesuai.
Halusinasi, perujukan, dan faktualitas model: Model AI generatif
dapat kurang faktual dalam pengetahuan dunia nyata, properti fisik, atau
pemahaman yang akurat. Keterbatasan ini dapat menyebabkan halusinasi model, yang merujuk pada kasus saat model dapat menghasilkan output yang terdengar masuk akal tetapi salah secara faktual, tidak relevan, tidak pantas, atau tidak masuk akal. Untuk mengurangi kemungkinan ini, Anda dapat melakukan grounding model ke data spesifik Anda. Untuk mempelajari perujukan di Vertex AI lebih lanjut, lihat
Ringkasan perujukan.
Kualitas dan penyesuaian data: Kualitas, akurasi, dan bias prompt atau data yang dimasukkan ke dalam model dapat memberikan dampak yang signifikan terhadap performanya. Jika pengguna memasukkan data atau perintah yang tidak akurat atau salah, model dapat memiliki performa yang kurang optimal atau output model yang salah.
Amplifikasi bias: Model AI generatif dapat secara tidak sengaja memperkuat bias yang sudah ada dalam data pelatihannya, sehingga menghasilkan output yang dapat semakin memperkuat prasangka sosial dan perlakuan yang tidak setara terhadap kelompok tertentu.
Kualitas bahasa: Meskipun model menghasilkan kemampuan multibahasa yang mengesankan pada tolok ukur yang kami evaluasi, sebagian besar tolok ukur kami (termasuk semua evaluasi keadilan) menggunakan bahasa Inggris. Untuk mengetahui informasi selengkapnya, lihat
blog Google Research.
Model AI generatif dapat memberikan kualitas layanan yang tidak konsisten kepada
pengguna yang berbeda. Misalnya, pembuatan teks mungkin tidak efektif untuk beberapa dialek atau varietas bahasa karena data pelatihan kurang terwakili. Performa dapat lebih buruk untuk bahasa non-Inggris atau
variasi bahasa Inggris dengan representasi yang lebih sedikit.
Tolok ukur keadilan dan subgrup: Analisis keadilan Tim Riset Google terhadap model AI generatif kami tidak memberikan informasi lengkap mengenai berbagai potensi risiko. Misalnya, kami berfokus pada bias terkait sumbu gender, ras, etnis, dan agama, tetapi hanya melakukan analisis pada output model dan data berbahasa Inggris. Untuk mengetahui informasi selengkapnya, lihat
blog Google Research.
Keahlian domain terbatas: Model AI generatif mungkin tidak memiliki pengetahuan mendalam yang diperlukan untuk memberikan respons yang akurat dan mendetail tentang topik yang sangat khusus atau teknis, sehingga menghasilkan informasi yang bersifat dangkal atau salah. Untuk kasus penggunaan khusus yang kompleks, model harus disesuaikan dengan data khusus domain, dan harus ada pengawasan manusia yang memadai dalam konteks dengan potensi untuk secara material memengaruhi hak individu.
Panjang dan struktur input dan output: Model AI generatif memiliki batas token input dan output maksimum. Jika input atau output melebihi batas ini, pengklasifikasi keamanan kami tidak diterapkan, yang pada akhirnya dapat menyebabkan performa model yang buruk. Meskipun model kami dirancang untuk menangani berbagai format teks, performanya dapat terpengaruh jika data input memiliki struktur yang tidak biasa atau kompleks.
Praktik yang direkomendasikan
Untuk memanfaatkan teknologi ini dengan aman dan bertanggung jawab, penting juga
untuk mempertimbangkan risiko lain yang spesifik untuk kasus penggunaan, pengguna, dan konteks bisnis Anda, selain
memanfaatkan perlindungan teknis bawaan.
Anda sebaiknya melakukan langkah-langkah berikut ini:
Menilai risiko keamanan aplikasi Anda.
Melakukan pengujian keamanan yang sesuai dengan kasus penggunaan Anda.
Konfigurasi filter keamanan jika diperlukan.
Meminta masukan pengguna dan memantau konten.
Laporkan penyalahgunaan
Anda dapat melaporkan dugaan penyalahgunaan Layanan atau output yang dihasilkan yang berisi materi tidak pantas atau informasi tidak akurat menggunakan formulir berikut: Laporkan dugaan penyalahgunaan di Google Cloud.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-09-04 UTC."],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]