Gemini para Google Cloud y la IA responsable

En este documento, se describe cómo se diseñó Gemini para Google Cloud teniendo en cuenta las capacidades, limitaciones y riesgos asociados con la IA generativa.

Capacidades y riesgos de los modelos grandes de lenguaje

Los modelos grandes de lenguaje (LLM) pueden realizar muchas tareas útiles, como las siguientes:

  • Traducir el idioma.
  • Resume texto.
  • Generar código y escritura creativa.
  • Potencia los chatbots y los asistentes virtuales.
  • Complementa los motores de búsqueda y los sistemas de recomendaciones.

Al mismo tiempo, las capacidades técnicas en evolución de los LLM crean el potencial de aplicación incorrecta, uso inadecuado y consecuencias no deseadas o imprevistas.

Los LLM pueden generar resultados inesperados, como texto ofensivo, insensible o con datos incorrectos. Debido a que los LLM son increíblemente versátiles, puede ser difícil predecir con exactitud qué tipo de resultados no deseados o imprevistos pueden producir.

Teniendo en cuenta estos riesgos y complejidades, Gemini para Google Cloud se diseñó teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los usuarios comprendan algunas de las limitaciones de Gemini para que Google Cloud funcione de forma segura y responsable.

Limitaciones de Gemini para Google Cloud

Estas son algunas de las limitaciones que puedes encontrar cuando usas Gemini para Google Cloud:

  • Casos extremos. Los casos extremos son situaciones inusuales, raras o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden generar limitaciones en la salida de los modelos de Gemini, como el exceso de confianza del modelo, la interpretación errónea del contexto o los resultados inapropiados.

  • Alucinaciones de modelos, fundamentos y facticidad. Es posible que los modelos de Gemini no tengan fundamentos y facticidad en el conocimiento del mundo real, las propiedades físicas o la comprensión precisa. Esta limitación puede generar alucinaciones del modelo, en las que Gemini para Google Cloud podría generar resultados que suenen creíbles, pero que no sean objetivamente incorrectos, irrelevantes, inapropiados o sin sentido. Los desvaríos también pueden incluir la fabricación de vínculos a páginas web que no existen y que nunca han existido. Si deseas obtener más información, consulta Cómo escribir mejores mensajes para Gemini para Google Cloud.

  • Calidad de los datos y ajustes. La calidad, la precisión y el sesgo de los datos de instrucciones que se ingresan en los productos de Gemini para Google Cloud pueden tener un impacto significativo en su rendimiento. Si los usuarios ingresan instrucciones imprecisas o incorrectas, Gemini para Google Cloud puede mostrar respuestas subóptimas o falsas.

  • Amplificación de sesgo. Los modelos de lenguaje pueden amplificar inadvertidamente los sesgos existentes en sus datos de entrenamiento, lo que genera resultados que podrían reforzar aún más los prejuicios sociales y un trato desigual de ciertos grupos.

  • Calidad del idioma. Si bien Gemini para Google Cloud ofrece capacidades multilingües impresionantes en las comparativas con las que evaluamos, la mayoría de nuestras comparativas (incluidas todas las evaluaciones de equidad) están en inglés estadounidense.

    Los modelos de lenguaje pueden proporcionar una calidad de servicio inconsistente a diferentes usuarios. Por ejemplo, la generación de texto podría no ser tan eficaz para algunos dialectos o variedades de idiomas porque están subrepresentados en los datos de entrenamiento. El rendimiento puede ser peor en el caso de los idiomas que no son inglés o de las variedades de idioma inglés con menos representación.

  • Comparativas y subgrupos de equidad. Los análisis de equidad de Google Research de los modelos de Gemini no proporcionan una explicación exhaustiva de los distintos riesgos posibles. Por ejemplo, nos enfocamos en los sesgos a lo largo de los ejes de género, origen étnico, etnia y religión, pero realizamos el análisis solo en los datos y los resultados de los modelos en inglés estadounidense.

  • Experiencia limitada en el dominio. Los modelos de Gemini se entrenaron con la tecnología de Google Cloud, pero es posible que carezcan de la profundidad de conocimiento necesaria para proporcionar respuestas precisas y detalladas en temas técnicos o altamente especializados, lo que genera información superficial o incorrecta.

    Cuando usas el panel de Gemini en la consola de Google Cloud, Gemini no conoce el contexto de tu entorno específico, por lo que no puede responder preguntas como “¿Cuándo fue la última vez que creé una VM?”.

    En algunos casos, Gemini para Google Cloud envía un segmento específico de tu contexto al modelo para recibir una respuesta en un contexto específico, por ejemplo, cuando haces clic en el botón Sugerencias de solución de problemas en la página del servicio de Error Reporting.

Filtrado de seguridad y toxicidad de Gemini

Los mensajes y las respuestas de Gemini para Google Cloud se comparan con una lista completa de atributos de seguridad, según corresponda para cada caso de uso. El objetivo de estos atributos de seguridad es filtrar el contenido que infringe nuestra Política de Uso Aceptable. Si un resultado se considera perjudicial, se bloqueará la respuesta.

¿Qué sigue?