Gemini para IA responsable y Google Cloud

En este documento, se describe cómo se diseñó Gemini para Google Cloud teniendo en cuenta los limitaciones y riesgos asociados a la IA generativa.

Capacidades y riesgos de los modelos grandes de lenguaje

Los modelos grandes de lenguaje (LLM) pueden realizar muchas tareas útiles, como lo siguiente:

  • Idioma de traducción.
  • Resume texto.
  • Generar código y escritura creativa
  • Impulsar chatbots y asistentes virtuales
  • Complementa los motores de búsqueda y los sistemas de recomendación.

Al mismo tiempo, las capacidades técnicas en constante evolución de los LLM crean la aplicaciones inadecuadas, usos inadecuados y consecuencias no deseadas o imprevistas.

Los LLM pueden generar resultados inesperados, como texto ofensivo, insensible o objetivamente incorrecto. Como los LLM son increíblemente versátiles, puede ser difícil predecir exactamente qué tipos de eventos los resultados que pueden producir.

Debido a estos riesgos y complejidades, Gemini para Google Cloud se diseñó con Principios de la IA de Google en en la mente. Sin embargo, es importante que los usuarios comprendan algunas de las limitaciones de Gemini para que Google Cloud funcione de manera segura y responsable

Limitaciones de Gemini para Google Cloud

Algunas de las limitaciones que puedes encontrar si usas Gemini para Google Cloud incluyen (entre otros) los siguientes:

  • Casos extremos. Los casos extremos se refieren a situaciones inusuales, raras o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden provocar limitaciones en el resultado de los modelos de Gemini, como las APIs el exceso de confianza, la mala interpretación del contexto o los resultados inapropiados.

  • Alucinaciones de modelos, fundamentación y facticidad. Géminis es posible que los modelos carezcan de fundamentación y facticidad en el conocimiento del mundo real, los conocimientos físicos, propiedades o una comprensión precisa. Esta limitación puede dar lugar a alucinaciones, en las que Gemini para Google Cloud podría generar resultados que parezcan plausibles pero incorrectos irrelevantes, inapropiadas o sin sentido. Las alucinaciones también pueden incluir fabricar vínculos a páginas web que no existen y que nunca han existido. Para más información, consulta Escribe mejores instrucciones para Gemini para Google Cloud.

  • Calidad y ajuste de los datos. La calidad, la precisión y el sesgo de la instrucción los datos que se ingresan en Gemini para Google Cloud pueden tener un impacto significativo en su rendimiento. Si los usuarios ingresan instrucciones imprecisas o incorrectas, Gemini para Google Cloud podría mostrar respuestas falsas o subóptimas.

  • Amplificación del sesgo. Los modelos de lenguaje pueden amplificar sin querer sesgos en sus datos de entrenamiento, lo que lleva a resultados que podrían reforzar aún más los prejuicios sociales y el trato desigual de ciertos grupos.

  • Calidad del idioma. Aunque Gemini para Google Cloud ofrece sorprendentes capacidades multilingües respecto de las comparativas en comparación con la mayoría de nuestras comparativas (incluidas todas las equidad) están en inglés estadounidense.

    Los modelos de lenguaje podrían proporcionar una calidad de servicio incoherente a diferentes usuarios. Por ejemplo, la generación de texto podría no ser tan eficaz para algunos dialectos o variedades de lenguaje porque no están representadas en los datos de entrenamiento. El rendimiento podría ser peor en los idiomas que no son inglés o inglés variedades con menos representación.

  • Comparativas y subgrupos de equidad. Los análisis de equidad de Google Research de Los modelos de Gemini no ofrecen una explicación detallada de los diversos los riesgos potenciales. Por ejemplo, nos enfocamos en los sesgos de género, origen étnico, ejes de etnia y religión, pero realizar el análisis solo a partir del Datos en inglés y resultados del modelo.

  • Experiencia limitada en el área. Los modelos de Gemini se entrenaron sobre la tecnología de Google Cloud, pero es posible que carezca de los conocimientos que se requiere para proporcionar respuestas precisas y detalladas a temas especializados o técnicos que llevan a resultados superficiales o incorrectos información.

    Cuando usas el panel Gemini en la consola de Google Cloud, Gemini no tiene en cuenta el contexto de tu entorno específico, por lo que no puede responder preguntas como “¿Cuándo fue la última vez que creé una VM?”

    En algunos casos, Gemini para Google Cloud envía un segmento de tu contexto con el modelo para recibir una respuesta específica respuesta (por ejemplo, cuando haces clic en el botón Sugerencias para solucionar problemas) de la página del servicio de Error Reporting.

Filtrado de toxicidad y seguridad de Gemini

Se verificaron las instrucciones y respuestas de Gemini para Google Cloud con una lista completa de atributos de seguridad según corresponda para cada uso para determinar si este es el caso. El objetivo de estos atributos de seguridad es filtrar el contenido que infringe nuestras Política de Uso Aceptable. Si una salida es considerada perjudicial, la respuesta se bloqueará.

¿Qué sigue?