Gemini para IA responsable y Google Cloud

En este documento, se describe cómo se diseñó Gemini para Google Cloud en vista de las capacidades, limitaciones y riesgos asociados con la IA generativa.

Capacidades y riesgos de los modelos grandes de lenguaje

Los modelos grandes de lenguaje (LLM) pueden realizar muchas tareas útiles, como las siguientes:

  • Idioma de traducción.
  • Resume texto.
  • Generar código y escritura creativa
  • Impulsar chatbots y asistentes virtuales
  • Complementa los motores de búsqueda y los sistemas de recomendación.

Al mismo tiempo, las capacidades técnicas en evolución de los LLM crean el potencial de aplicaciones inadecuadas, usos inadecuados y consecuencias no deseadas o imprevistas.

Los LLM pueden generar resultados inesperados, como texto ofensivo, insensible o incorrecto. Debido a que los LLM son increíblemente versátiles, puede ser difícil predecir con exactitud qué tipos de resultados no deseados o imprevistos podrían producir.

Debido a estos riesgos y complejidades, Gemini para Google Cloud se diseñó teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los usuarios comprendan algunas de las limitaciones de Gemini para que Google Cloud funcione de manera segura y responsable.

Limitaciones de Gemini para Google Cloud

Algunas de las limitaciones que puedes encontrar si usas Gemini para Google Cloud incluyen (entre otras) las siguientes:

  • Casos extremos. Los casos extremos se refieren a situaciones inusuales, raras o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden generar limitaciones en los resultados de los modelos de Gemini, como exceso de confianza del modelo, interpretación errónea del contexto o resultados inapropiados.

  • Alucinaciones de modelos, fundamentación y facticidad. Es posible que los modelos de Gemini carezcan de fundamentos y fáctica en el conocimiento del mundo real, las propiedades físicas o la comprensión precisa. Esta limitación puede generar alucinaciones del modelo, en las que Gemini para Google Cloud podría generar resultados que parecen razonables, pero que son incorrectos, irrelevantes, inapropiados o sin sentido. Las alucinaciones también pueden incluir la creación de vínculos a páginas web que no existen y que nunca han existido. Para obtener más información, consulta Cómo escribir mejores instrucciones para Gemini para Google Cloud.

  • Calidad y ajuste de los datos. La calidad, la precisión y el sesgo de los datos de instrucciones que se ingresan en Gemini para los productos de Google Cloud pueden tener un impacto significativo en su rendimiento. Si los usuarios ingresan instrucciones imprecisas o incorrectas, Gemini para Google Cloud podría mostrar respuestas incorrectas o deficientes.

  • Amplificación del sesgo. Los modelos de lenguaje pueden amplificar de forma involuntaria los sesgos existentes en los datos de entrenamiento, lo que genera resultados que podrían reforzar aún más los prejuicios sociales y el tratamiento desigual de ciertos grupos.

  • Calidad del idioma. Si bien Gemini para Google Cloud ofrece capacidades multilingües impresionantes en las comparativas con las que evaluamos, la mayoría de ellas (incluidas todas las evaluaciones de equidad) están en inglés estadounidense.

    Los modelos de lenguaje podrían proporcionar una calidad de servicio incoherente a diferentes usuarios. Por ejemplo, la generación de texto podría no ser tan eficaz para algunos dialectos o variedades de idioma porque están poco representados en los datos de entrenamiento. El rendimiento puede ser peor para los idiomas que no son inglés o las variedades de idioma inglés con menos representación.

  • Comparativas y subgrupos de equidad. Los análisis de equidad de los modelos de Gemini de Google Research no proporcionan una descripción detallada de los diversos riesgos potenciales. Por ejemplo, nos enfocamos en sesgos en los ejes de género, origen étnico, etnia y religión, pero realizamos el análisis solo en los datos en inglés estadounidense y en los resultados del modelo.

  • Experiencia limitada en el área. Los modelos de Gemini se entrenaron con la tecnología de Google Cloud, pero es posible que no tengan la profundidad de los conocimientos necesarios para proporcionar respuestas precisas y detalladas sobre temas técnicos o altamente especializados, lo que lleva a información superficial o incorrecta.

    Cuando usas el panel Gemini en la consola de Google Cloud, Gemini no reconoce el contexto de tu entorno específico, por lo que no puede responder preguntas como “¿Cuándo fue la última vez que creé una VM?”.

    En algunos casos, Gemini para Google Cloud envía un segmento específico de tu contexto al modelo para recibir una respuesta específica del contexto, por ejemplo, cuando haces clic en el botón Solución de problemas de sugerencias en la página del servicio de Error Reporting.

Filtrado de toxicidad y seguridad de Gemini

Las instrucciones y respuestas de Gemini para Google Cloud se comparan con una lista completa de atributos de seguridad según corresponda para cada caso de uso. El objetivo de estos atributos de seguridad es filtrar el contenido que infringe nuestra Política de Uso Aceptable. Si un resultado se considera dañino, se bloqueará la respuesta.

¿Qué sigue?