IA responsable

Los modelos grandes de lenguaje (LLM) pueden traducir idiomas, resumir texto, generar escritura de creatividades, generar código, chatbots avanzados y asistentes virtuales, y motores de búsqueda complementarios y sistemas de recomendación. Al mismo tiempo, como una tecnología en su fase inicial, las capacidades y los usos que están en evolución podrían generar aplicaciones inadecuadas, usos inadecuados y consecuencias no deseadas o imprevistas. Los modelos grandes de lenguaje pueden generar resultados que no se esperan, incluido un texto que sea ofensivo, insensible o factible.

Además, la increíble versatilidad de los LLM es lo que dificulta la predicción exacta de los tipos de resultados no deseados o imprevistos que podrían producir. Debido a estos riesgos y complejidades, las APIs de IA generativas de Vertex AI se diseñaron teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los desarrolladores comprendan y prueben sus modelos para implementarlos de manera segura y responsable. Para ayudar a los desarrolladores, Vertex AI Studio tiene un filtro de contenido integrado, y nuestras APIs de IA generativas tienen una puntuación de atributos de seguridad para ayudar a los clientes a probar los filtros de seguridad de Google y definir los umbrales de confianza adecuados para su caso de uso y negocios. Consulta la sección Filtros y atributos de seguridad para obtener más información.

Cuando nuestras APIs generativas se integran en tu caso práctico y contexto único, es posible que debas tener en cuenta las limitaciones y consideraciones adicionales de la IA responsable. Recomendamos a los clientes que fomenten las prácticas recomendadas de equidad, interpretabilidad, privacidad y seguridad.

Atributos y filtros de seguridad

Para obtener información sobre cómo usar los filtros de seguridad y los atributos de una API, consulta las siguientes páginas:

Metadatos de citas

Nuestras funciones de código generativo están destinadas a producir contenido original y no a replicar en detalle el contenido que ya esté disponible. Diseñamos nuestros sistemas para limitar las posibilidades de que esto suceda y mejorar continuamente el funcionamiento de estos sistemas. Si estas funciones toman citas textuales de una página web, citan dicha página.

En ocasiones, es posible que se encuentre el mismo contenido en varias páginas web. Si eso ocurre, intentaremos dirigirlo a una fuente popular. En el caso de citas a repositorios de código, la cita también puede hacer referencia a una licencia de código abierto aplicable. Es su responsabilidad satisfacer los requisitos de las licencias.

Metadatos de citas de muestra

{
  "predictions": [
    {
      "safetyAttributes": {
        "scores": [],
        "categories": [],
        "blocked": false
      },
      "content": "Shall I compare thee to a summer's day?\nThou art more lovely and more temperate.\nRough winds do shake the darling buds of May,\nAnd summer's lease hath all too short a date.\n\nSometime too hot the eye of heaven shines,\nAnd often is his gold complexion dimm'd;\nAnd every fair from fair sometime declines,\nBy chance or nature's changing course, untrimm'd.\n\nBut thy eternal summer shall not fade,\nNor lose possession of that fair thou ow'st,\nNor shall death brag thou wanderest in his shade,\nWhen in eternal lines to time thou grow'st.\n\nSo long as men can breathe or eyes can see,\nSo long lives this and this gives life to thee.",
      "citationMetadata": {
        "citations": [
          {
            "endIndex": 262,
            "publicationDate": "1800",
            "startIndex": 0,
            "title": ""The" Royal Shakespeare"
          },
          {
            "title": "Sabrinae corolla in hortulis regiae scholae Salopiensis contextuerunt tres viri floribus legendis ...",
            "publicationDate": "1801",
            "startIndex": 140,
            "endIndex": 417
          },
          {
            "startIndex": 302,
            "publicationDate": "1800",
            "title": ""The" Royal Shakespeere",
            "endIndex": 429
          },
          {
            "startIndex": 473,
            "publicationDate": "1847",
            "title": "The Poems of William Shakespeare",
            "endIndex": 618
          }
        ]
      }
    }
  ]
}

Descripción de metadatos

En la siguiente tabla, se describen los metadatos de citas.

Metadata Descripción

startIndex

Índice en la respuesta donde comienza la cita (inclusive). Debe ser mayor o igual que 0 y menor que el valor de endIndex.

endIndex

Índice en el resultado de la predicción en el que finaliza la cita (exclusivo). Debe ser mayor que startIndex y menor que la longitud de la respuesta.

url

URL asociada con esta cita. Si está presente, esta URL vincula a la página web de origen de esta cita.

title

Título asociado a esta cita. Si está presente, hace referencia al título de la fuente de esta cita.

license

Licencia asociada con esta cita. Si está presente, hace referencia a la licencia detectada automáticamente de la fuente de esta cita. Las licencias posibles incluyen licencias de código abierto.

publicationDate

Es la fecha de publicación asociada con esta cita. Si está presente, hace referencia a la fecha en la que se publicó la fuente de esta cita. Los formatos posibles son AAAA, AAAA-MM y AAAA-MM-DD.

Limitaciones del modelo

Entre las limitaciones que puedes encontrar cuando usas los modelos de IA generativa, se incluyen las siguientes:

  • Casos extremos: Los casos extremos se refieren a situaciones inusuales o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden generar limitaciones en el rendimiento del modelo, como un exceso de confianza, una interpretación errónea del contexto o resultados inapropiados.

  • Alucinaciones, fundamentación y factibilidad de modelos: Los modelos generativos de IA pueden carecer de factibilidad en el conocimiento del mundo real, en las propiedades físicas o en la comprensión precisa. Esta limitación puede generar alucinaciones del modelo, que se refieren a instancias en las que puede generar resultados que suenan posibles, pero que son incorrectos, irrelevantes, inapropiados o no tienen sentido. Para reducir esta posibilidad, puedes basar los modelos en tus datos específicos. Para obtener más información sobre los fundamentos de Vertex AI, consulta Descripción general de base.

  • Calidad y ajuste de los datos: La calidad, precisión y sesgo del mensaje o la entrada de datos en un modelo pueden tener un impacto significativo en su rendimiento. Si los usuarios ingresan instrucciones o datos incorrectos o inexactos, el modelo puede tener un rendimiento deficiente o resultados de modelo falsos.

  • Amplificación de sesgo: Los modelos de la IA generativa pueden amplificar de forma involuntaria el sesgo existente en los datos de entrenamiento, lo que genera resultados que pueden reforzar aún más los prejuicios sociales y el tratamiento desigual de ciertos grupos.

  • Calidad del lenguaje: Si bien los modelos producen capacidades impresionantes multilingües en las comparativas con las que evaluamos, la mayoría de nuestras comparativas (incluidas todas las evaluaciones de equidad) están en inglés. Para obtener más información, consulta el blog de Google Research.

    • Los modelos de IA generativos pueden proporcionar una calidad de servicio incoherente a los diferentes usuarios. Por ejemplo, es posible que la generación de texto no sea tan eficaz para algunos dialectos o variedades de idioma debido a la subrepresentación en los datos de entrenamiento. El rendimiento puede ser peor para los idiomas que no son inglés o los variedades de idioma inglés con menos representación.
  • Subgrupos y comparativas de la equidad: Los análisis de equidad de Google Research de nuestros modelos generativos de IA no proporcionan una cuenta exhaustiva de los diversos riesgos potenciales. Por ejemplo, nos enfocamos en los sesgos de género, raza, etnia y religión, pero realizamos el análisis solo en los datos de inglés y las salidas de modelos. Para obtener más información, consulta el blog de Google Research.

  • Experiencia limitada en el dominio: Los modelos de IA generativa pueden carecer de la profundidad de conocimiento necesaria para proporcionar respuestas precisas y detalladas sobre temas altamente especializados o técnicas, lo que lleva a información superficial o incorrecta. Para casos de uso especializados y complejos, los modelos se deben ajustar a los datos específicos del dominio y debe haber una supervisión humana significativa en contextos con el potencial de afectar de forma significativa los derechos individuales.

  • Longitud y estructura de las entradas y salidas: Los modelos de IA generativa tienen un límite máximo de tokens de entrada y salida. Si la entrada o salida excede este límite, no se aplican nuestros clasificadores de seguridad, lo que podría provocar un rendimiento deficiente del modelo. Si bien nuestros modelos están diseñados para manejar una amplia gama de formatos de texto, su rendimiento puede verse afectado si los datos de entrada tienen una estructura inusual o compleja.

Para usar esta tecnología de forma segura y responsable, también es importante considerar otros riesgos específicos de tu caso de uso, los usuarios y el contexto empresarial, además de las protecciones técnicas integradas.

Te recomendamos que sigas estos pasos:

  1. Evalúa los riesgos de seguridad de tu aplicación.
  2. Considera realizar ajustes para mitigar los riesgos de seguridad.
  3. Realiza pruebas de seguridad adecuadas según tu caso de uso.
  4. Solicita comentarios de los usuarios y supervisa el contenido.

Denunciar abuso

Puedes informar un posible abuso del Servicio o cualquier resultado generado que contenga material inapropiado o información imprecisa con el siguiente formulario: Denunciar sospechas de abuso en Google Cloud.

Recursos adicionales