Integração do Model Armor com os serviços do Google Cloud

O Model Armor se integra a vários serviços do Google Cloud :

  • Google Kubernetes Engine (GKE) e extensões de serviço
  • Vertex AI

GKE e extensões de serviço

O Model Armor pode ser integrado ao GKE usando extensões de serviço. Com as extensões de serviço, é possível integrar serviços internos (Google Cloud ) ou externos (gerenciados pelo usuário) para processar o tráfego. É possível configurar uma extensão de serviço em balanceadores de carga de aplicativo, incluindo gateways de inferência do GKE, para filtrar o tráfego de e para um cluster do GKE. Isso verifica se todas as interações com os modelos de IA estão protegidas pelo Model Armor. Para mais informações, consulte Integração com o GKE.

Vertex AI

O Model Armor pode ser integrado diretamente à Vertex AI usando configurações de limite mínimo ou modelos. Essa integração examina as solicitações e respostas do modelo do Gemini, bloqueando aquelas que violam as configurações mínimas. Essa integração oferece proteção de comandos e respostas na API Gemini na Vertex AI para o método generateContent. É necessário ativar o Cloud Logging para ter visibilidade nos resultados da sanitização de comandos e respostas. Para mais informações, consulte Integração com a Vertex AI.

Antes de começar

Ativar APIs

É necessário ativar as APIs do Model Armor antes de usar o Model Armor.

Console

  1. Enable the Model Armor API.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the API

  2. Selecione o projeto em que você quer ativar o Model Armor.

gcloud

Antes de começar, siga estas etapas usando a CLI do Google Cloud com a API Model Armor:

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. Execute o comando a seguir para definir o endpoint da API do serviço Model Armor.

    gcloud config set api_endpoint_overrides/modelarmor "https://modelarmor.LOCATION.rep.googleapis.com/"

    Substitua LOCATION pela região em que você quer usar o Model Armor.

  3. Execute o comando a seguir para ativar o Model Armor.

      gcloud services enable modelarmor.googleapis.com --project=PROJECT_ID
       

    Substitua PROJECT_ID pelo ID do projeto.

    Opções ao integrar o Model Armor

    O Model Armor oferece as seguintes opções de integração. Cada opção oferece recursos e funcionalidades diferentes.

    Opção de integração Aplicador/detector de políticas Configurar detecções Somente inspeção Inspecionar e bloquear Cobertura de modelos e nuvem
    API REST Detector Usando apenas modelos Sim Sim Todos os modelos e todas as nuvens
    Vertex AI (prévia) Aplicação inline Usar configurações mínimas ou modelos Sim Sim Gemini (não streaming) no Google Cloud
    Google Kubernetes Engine (prévia) Aplicação inline Usando apenas modelos Sim Sim Modelos com formato Open AI em Google Cloud

    Para a opção de integração da API REST, o Model Armor funciona como um detector usando apenas modelos. Isso significa que ele identifica e informa principalmente possíveis violações da política com base em modelos predefinidos, em vez de impedir ativamente que elas aconteçam.

    Com a opção de integração da Vertex AI, o Model Armor oferece aplicação inline usando configurações ou modelos de restrição. Isso significa que o Model Armor aplica ativamente as políticas intervindo diretamente no processo sem exigir modificações no código do aplicativo.

    Assim como a Vertex AI, a opção de integração do GKE também oferece aplicação inline apenas usando modelos. Isso indica que o Model Armor pode aplicar políticas diretamente no gateway de inferência sem exigir modificações no código do aplicativo.