Los modelos de lenguaje extenso (LLMs) pueden traducir idiomas, resumir textos, generar textos creativos, generar código, potenciar chatbots y asistentes virtuales, y complementar buscadores y sistemas de recomendación. Al mismo tiempo, dado a que la IA es una tecnología en etapa inicial de desarrollo, sus funciones y usos en constante evolución pueden conducir a aplicaciones incorrectas, usos inadecuados y consecuencias no deseadas o imprevistas. Los modelos de lenguaje extensos pueden generar resultados inesperados, como texto ofensivo, insensible o incorrecto.
Además, la increíble versatilidad de los LLMs es lo que dificulta predecir exactamente qué tipos de resultados no deseados o imprevistos pueden producir. Teniendo en cuenta estos riesgos y complejidades, las APIs de IA generativa de Vertex AI se han diseñado siguiendo los principios de IA de Google. Sin embargo, es importante que los desarrolladores comprendan y prueben sus modelos para desplegarlos de forma segura y responsable. Para ayudar a los desarrolladores, Vertex AI Studio tiene filtros de contenido integrados y nuestras APIs de IA generativa incluyen puntuaciones de atributos de seguridad para ayudar a los clientes a probar los filtros de seguridad de Google y definir los umbrales de confianza adecuados para su caso de uso y su empresa. Consulte la sección Filtros y atributos de seguridad para obtener más información.
Cuando nuestras APIs generativas se integran en tu caso práctico y contexto únicos, es posible que debas tener en cuenta otras consideraciones y limitaciones de la IA responsable. Animamos a los clientes a que promuevan la equidad, la interpretabilidad, la privacidad y la seguridad siguiendo las prácticas recomendadas.
Filtros y atributos de seguridad
Para saber cómo usar los filtros y atributos de seguridad de una API, consulta API de Gemini en Vertex AI.
Limitaciones del modelo
Entre las limitaciones que puedes encontrar al usar modelos de IA generativa, se incluyen las siguientes:
Casos límite: se refieren a situaciones inusuales, raras o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden provocar limitaciones en el rendimiento del modelo, como una confianza excesiva del modelo, una interpretación errónea del contexto o resultados inadecuados.
Alucinaciones, fundamentación y veracidad de los modelos: los modelos de IA generativa pueden carecer de veracidad en cuanto al conocimiento del mundo real, las propiedades físicas o la comprensión precisa. Esta limitación puede provocar alucinaciones del modelo, es decir, casos en los que puede generar resultados que suenan plausibles, pero que son incorrectos, irrelevantes, inapropiados o absurdos. Para reducir esta probabilidad, puedes basar los modelos en tus datos específicos. Para obtener más información sobre el grounding en Vertex AI, consulta la descripción general del grounding.
Calidad y ajuste de los datos: la calidad, la precisión y el sesgo de la petición o de los datos introducidos en un modelo pueden influir significativamente en su rendimiento. Si los usuarios introducen datos o peticiones imprecisos o incorrectos, el modelo puede tener un rendimiento subóptimo o generar resultados falsos.
Amplificación de sesgos: los modelos de IA generativa pueden amplificar sin querer los sesgos presentes en sus datos de entrenamiento, lo que puede dar lugar a resultados que refuercen aún más los prejuicios sociales y el trato desigual de determinados grupos.
Calidad del idioma: aunque los modelos ofrecen impresionantes funciones multilingües en las evaluaciones comparativas que hemos realizado, la mayoría de nuestras evaluaciones (incluidas todas las de equidad) están en inglés. Para obtener más información, consulta el blog de Google Research.
- Los modelos de IA generativa pueden ofrecer una calidad de servicio incoherente a diferentes usuarios. Por ejemplo, la generación de texto puede no ser tan eficaz en algunos dialectos o variedades lingüísticas debido a la falta de representación en los datos de entrenamiento. El rendimiento puede ser peor en idiomas distintos del inglés o en variedades del inglés con menos representación.
Subgrupos y métricas de equidad: los análisis de equidad de Google Research de nuestros modelos de IA generativa no ofrecen una descripción exhaustiva de los distintos riesgos potenciales. Por ejemplo, nos centramos en los sesgos relacionados con el sexo, la raza, la etnia y la religión, pero solo analizamos los datos y los resultados del modelo en inglés. Para obtener más información, consulta el blog de Google Research.
Conocimientos especializados limitados: los modelos de IA generativa pueden carecer de la profundidad de conocimientos necesaria para proporcionar respuestas precisas y detalladas sobre temas muy especializados o técnicos, lo que lleva a que la información sea superficial o incorrecta. En los casos prácticos especializados y complejos, los modelos deben ajustarse con datos específicos del dominio y debe haber una supervisión humana significativa en los contextos que puedan afectar de forma importante a los derechos de las personas.
Longitud y estructura de las entradas y las salidas: los modelos de IA generativa tienen un límite máximo de tokens de entrada y de salida. Si la entrada o la salida superan este límite, no se aplicarán nuestros clasificadores de seguridad, lo que podría provocar que el modelo no funcione correctamente. Aunque nuestros modelos están diseñados para gestionar una amplia gama de formatos de texto, su rendimiento puede verse afectado si los datos de entrada tienen una estructura inusual o compleja.
Prácticas recomendadas
Para utilizar esta tecnología de forma segura y responsable, también es importante tener en cuenta otros riesgos específicos de tu caso de uso, tus usuarios y tu contexto empresarial, además de las medidas de protección técnicas integradas.
Te recomendamos que sigas estos pasos:
- Evalúa los riesgos de seguridad de tu aplicación.
- Realiza pruebas de seguridad adecuadas para tu caso práctico.
- Configura los filtros de seguridad si es necesario.
- Solicitar comentarios de los usuarios y monitorizar el contenido.
Denunciar abuso
Puedes denunciar un presunto uso inadecuado del Servicio o cualquier resultado generado que contenga material inapropiado o información imprecisa mediante el siguiente formulario: Denunciar un presunto uso inadecuado en Google Cloud.
Recursos adicionales
- Consulta información sobre la monitorización de abusos.
- Consulta más información sobre las recomendaciones de Google para las prácticas de IA responsable.
- Lee la entrada de nuestro blog Una agenda compartida para el progreso de la IA responsable.