Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Los modelos grandes de lenguaje (LLM) pueden traducir idiomas, resumir texto, generar escritura de creatividades, generar código, chatbots avanzados y asistentes virtuales, y motores de búsqueda complementarios y sistemas de recomendación. Al mismo tiempo, como una tecnología en su fase inicial, las capacidades y los usos que están en evolución podrían generar aplicaciones inadecuadas, usos inadecuados y consecuencias no deseadas o imprevistas. Los modelos grandes de lenguaje pueden generar resultados que no se esperan, incluido un texto que sea ofensivo, insensible o factible.
Además, la increíble versatilidad de los LLM es lo que dificulta la predicción exacta de los tipos de resultados no deseados o imprevistos que podrían producir. Debido a estos riesgos y complejidades, las APIs de IA generativas de Vertex AI se diseñaron teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los desarrolladores comprendan y prueben sus modelos para implementarlos de manera segura y responsable. Para ayudar a los desarrolladores, Vertex AI Studio tiene un filtro de contenido integrado, y nuestras APIs de IA generativas tienen una puntuación de atributos de seguridad para ayudar a los clientes a probar los filtros de seguridad de Google y definir los umbrales de confianza adecuados para su caso de uso y negocios.
Consulta la sección Filtros y atributos de seguridad para obtener más información.
Cuando nuestras APIs generativas se integran en tu caso práctico y contexto único, es posible que debas tener en cuenta las limitaciones y consideraciones adicionales de la IA responsable. Recomendamos a los clientes que fomenten las prácticas recomendadas de equidad, interpretabilidad, privacidad y seguridad.
Atributos y filtros de seguridad
Para obtener información sobre cómo usar los filtros de seguridad y los atributos de una API, consulta la API de Gemini en Vertex AI.
Limitaciones del modelo
Entre las limitaciones que puedes encontrar cuando usas los modelos de IA generativa, se incluyen las siguientes:
Casos extremos: Los casos extremos se refieren a situaciones inusuales o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden generar limitaciones en el rendimiento del modelo, como un exceso de confianza, una interpretación errónea del contexto o resultados inapropiados.
Alucinaciones, fundamentación y factibilidad de modelos: Los modelos generativos de IA pueden carecer de factibilidad en el conocimiento del mundo real, en las propiedades físicas o en la comprensión precisa. Esta limitación puede generar alucinaciones del modelo, que se refieren a instancias en las que puede generar resultados que suenan posibles, pero que son incorrectos, irrelevantes, inapropiados o no tienen sentido. Para reducir esta posibilidad, puedes basar los modelos en tus datos específicos. Para obtener más información sobre los fundamentos de Vertex AI, consulta Descripción general de base.
Calidad y ajuste de los datos: La calidad, precisión y sesgo del mensaje o la entrada de datos en un modelo pueden tener un impacto significativo en su rendimiento. Si los usuarios ingresan instrucciones o datos incorrectos o inexactos, el modelo puede tener un rendimiento deficiente o resultados de modelo falsos.
Amplificación de sesgo: Los modelos de la IA generativa pueden amplificar de forma involuntaria el sesgo existente en los datos de entrenamiento, lo que genera resultados que pueden reforzar aún más los prejuicios sociales y el tratamiento desigual de ciertos grupos.
Calidad del lenguaje: Si bien los modelos producen capacidades impresionantes multilingües en las comparativas con las que evaluamos, la mayoría de nuestras comparativas (incluidas todas las evaluaciones de equidad) están en inglés. Para obtener más información, consulta el blog de Google Research.
Los modelos de IA generativos pueden proporcionar una calidad de servicio incoherente a los diferentes usuarios. Por ejemplo, es posible que la generación de texto no sea tan eficaz para algunos dialectos o variedades de idioma debido a la subrepresentación en los datos de entrenamiento. El rendimiento puede ser peor para los idiomas que no son inglés o los variedades de idioma inglés con menos representación.
Subgrupos y comparativas de la equidad: Los análisis de equidad de Google Research de nuestros modelos generativos de IA no proporcionan una cuenta exhaustiva de los diversos riesgos potenciales. Por ejemplo, nos enfocamos en los sesgos de género, raza, etnia y religión, pero realizamos el análisis solo en los datos de inglés y las salidas de modelos. Para obtener más información, consulta el blog de Google Research.
Experiencia limitada en el dominio: Los modelos de IA generativa pueden carecer de la profundidad de conocimiento necesaria para proporcionar respuestas precisas y detalladas sobre temas altamente especializados o técnicas, lo que lleva a información superficial o incorrecta. Para casos de uso especializados y complejos, los modelos se deben ajustar a los datos específicos del dominio y debe haber una supervisión humana significativa en contextos con el potencial de afectar de forma significativa los derechos individuales.
Longitud y estructura de las entradas y salidas: Los modelos de IA generativa tienen un límite máximo de tokens de entrada y salida. Si la entrada o salida excede este límite, no se aplican nuestros clasificadores de seguridad, lo que podría provocar un rendimiento deficiente del modelo. Si bien nuestros modelos están diseñados para manejar una amplia gama de formatos de texto, su rendimiento puede verse afectado si los datos de entrada tienen una estructura inusual o compleja.
Prácticas recomendadas
Para usar esta tecnología de forma segura y responsable, también es importante considerar otros riesgos específicos de tu caso de uso, los usuarios y el contexto empresarial, además de las protecciones técnicas integradas.
Te recomendamos que sigas estos pasos:
Evalúa los riesgos de seguridad de tu aplicación.
Realiza pruebas de seguridad adecuadas según tu caso de uso.
Configura filtros de seguridad si es necesario.
Solicita comentarios de los usuarios y supervisa el contenido.
Denunciar abuso
Puedes informar un posible abuso del Servicio o cualquier resultado generado que contenga material inapropiado o información imprecisa con el siguiente formulario: Denunciar sospechas de abuso en Google Cloud.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]