Integrazione di Model Armor con i servizi Google Cloud
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Model Armor si integra con vari servizi: Google Cloud
Google Kubernetes Engine (GKE) ed estensioni di servizio
Vertex AI
GKE e Service Extensions
Model Armor può essere integrato con GKE tramite
le estensioni di servizio. Le estensioni di servizio consentono di integrare servizi interni (Google Cloud ) o esterni (gestiti dall'utente) per elaborare il traffico. Puoi configurare un'estensione di servizio sui bilanciatori del carico delle applicazioni,
inclusi i gateway di inferenza GKE, per filtrare il traffico da e verso un
cluster GKE. In questo modo viene verificato che tutte le interazioni con i modelli di AI
siano protette da Model Armor. Per maggiori informazioni, consulta
Integrazione con GKE.
Vertex AI
Model Armor può essere integrato direttamente in Vertex AI utilizzando le
impostazioni di base o i
modelli.
Questa integrazione esamina le richieste e le risposte del modello Gemini, bloccando
quelle che violano le impostazioni di base. Questa integrazione fornisce la protezione di prompt e risposte
all'interno dell'API Gemini in Vertex AI per il
metodo generateContent. Devi attivare Cloud Logging per ottenere visibilità
sui risultati della sanificazione di prompt e risposte. Per ulteriori informazioni, consulta
Integrazione con Vertex AI.
Prima di iniziare
Abilita API
Prima di poter utilizzare Model Armor, devi abilitare le API Model Armor.
At the bottom of the Google Cloud console, a
Cloud Shell
session starts and displays a command-line prompt. Cloud Shell is a shell environment
with the Google Cloud CLI
already installed and with values already set for
your current project. It can take a few seconds for the session to initialize.
Esegui questo comando per impostare l'endpoint API per il servizio Model Armor.
Per l'opzione di integrazione dell'API REST, Model Armor funziona come rilevatore
solo utilizzando i modelli. Ciò significa che identifica e segnala principalmente potenziali violazioni delle norme in base a modelli predefiniti, anziché prevenirle attivamente.
Con l'opzione di integrazione di Vertex AI, Model Armor fornisce
l'applicazione in linea utilizzando le impostazioni minime o i modelli. Ciò significa che
Model Armor applica attivamente i criteri intervenendo direttamente
nel processo senza richiedere modifiche al codice dell'applicazione.
Analogamente a Vertex AI, l'opzione di integrazione GKE offre anche l'applicazione incorporata solo utilizzando i modelli. Ciò indica che
Model Armor può applicare le norme direttamente all'interno del gateway di inferenza
senza richiedere modifiche al codice dell'applicazione.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-09 UTC."],[],[],null,["# Model Armor integration with Google Cloud services\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nModel Armor integrates with various Google Cloud services:\n\n- Google Kubernetes Engine (GKE) and Service Extensions\n- Vertex AI\n\nGKE and Service Extensions\n--------------------------\n\nModel Armor can be integrated with GKE through\nService Extensions. Service Extensions allow you to integrate\ninternal (Google Cloud services) or external (user-managed) services to process\ntraffic. You can configure a service extension on application load balancers,\nincluding GKE inference gateways, to screen traffic to and from a\nGKE cluster. This verifies that all interactions with the AI models\nare protected by Model Armor. For more information, see\n[Integration with GKE](/security-command-center/docs/model-armor-gke-integration).\n\nVertex AI\n---------\n\nModel Armor can be directly integrated into Vertex AI using either\n[floor settings](/security-command-center/docs/model-armor-vertex-integration#configure-floor-settings) or\n[templates](/security-command-center/docs/model-armor-vertex-integration#configure-templates).\nThis integration screens Gemini model requests and responses, blocking\nthose that violate floor settings. This integration provides prompt and response\nprotection within Gemini API in Vertex AI for the\n`generateContent` method. You need to enable Cloud Logging to get visibility\ninto the sanitization results of prompts and responses. For more information, see\n[Integration with Vertex AI](/security-command-center/docs/model-armor-vertex-integration).\n\nBefore you begin\n----------------\n\n### Enable APIs\n\nYou must enable Model Armor APIs before you can use Model Armor. \n\n### Console\n\n1.\n\n\n Enable the Model Armor API.\n\n\n [Enable the API](https://console.cloud.google.com/flows/enableapi?apiid=modelarmor.googleapis.com)\n\n \u003cbr /\u003e\n\n2. Select the project where you want to activate Model Armor.\n\n### gcloud\n\nBefore you begin, follow these steps using the Google Cloud CLI with the\nModel Armor API:\n\n1.\n\n\n In the Google Cloud console, activate Cloud Shell.\n\n [Activate Cloud Shell](https://console.cloud.google.com/?cloudshell=true)\n\n\n At the bottom of the Google Cloud console, a\n [Cloud Shell](/shell/docs/how-cloud-shell-works)\n session starts and displays a command-line prompt. Cloud Shell is a shell environment\n with the Google Cloud CLI\n already installed and with values already set for\n your current project. It can take a few seconds for the session to initialize.\n\n \u003cbr /\u003e\n\n2. Run the following command to set the API endpoint for the\n Model Armor service.\n\n ```bash\n gcloud config set api_endpoint_overrides/modelarmor \"https://modelarmor.\u003cvar translate=\"no\"\u003eLOCATION\u003c/var\u003e.rep.googleapis.com/\"\n ```\n\n Replace \u003cvar translate=\"no\"\u003eLOCATION\u003c/var\u003e with the region where you want to use Model Armor.\n\nRun the following command to enable Model Armor.\n\n\u003cbr /\u003e\n\n```bash\n gcloud services enable modelarmor.googleapis.com --project=PROJECT_ID\n \n```\n\n\u003cbr /\u003e\n\nReplace \u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e with the ID of the project.\n\nOptions when integrating Model Armor\n------------------------------------\n\nModel Armor offers the following integration options. Each option provides different\nfeatures and capabilities.\n\nFor the REST API integration option, Model Armor functions as a detector\nonly using templates. This means it primarily identifies and reports potential\npolicy violations based on predefined templates, rather than actively preventing\nthem.\n\nWith the Vertex AI integration option, Model Armor provides\ninline enforcement using floor settings or templates. This means\nModel Armor actively enforces policies by intervening directly\nin the process without requiring modifications to your application code.\n\nSimilar to Vertex AI, the GKE integration option also\noffers inline enforcement only using templates. This indicates that\nModel Armor can enforce policies directly within the inference gateway\nwithout requiring modifications to your application code."]]