A partire dal 29 aprile 2025, i modelli Gemini 1.5 Pro e Gemini 1.5 Flash non sono disponibili nei progetti che non li hanno mai utilizzati, inclusi i nuovi progetti. Per maggiori dettagli, vedi Versioni e ciclo di vita dei modelli.
Panoramica di Memory Bank di Vertex AI Agent Engine
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Memory Bank di Vertex AI Agent Engine ti consente di generare dinamicamente ricordi a lungo termine in base alle conversazioni degli utenti con il tuo agente. I ricordi a lungo termine sono informazioni personalizzate a cui un determinato utente può accedere in più sessioni. L'agente può utilizzare i ricordi per personalizzare le risposte all'utente e creare una continuità tra le sessioni.
Le funzionalità di Banca della Memoria includono:
Archiviazione permanente dei ricordi a cui è possibile accedere da più ambienti. Puoi utilizzare le sessioni e la banca di memoria di Vertex AI Agent Engine con l'agente di cui è stato eseguito il deployment su Vertex AI Agent Engine Runtime, dal tuo ambiente locale o con altre opzioni di deployment.
Estrazione dei ricordi dalla cronologia delle conversazioni basata su modelli linguistici di grandi dimensioni (LLM).
I ricordi vengono generati in remoto in modo asincrono, quindi l'agente non deve attendere la generazione dei ricordi.
Recupero dei ricordi basato sulla ricerca per similarità e limitato a un'identità (scope).
Se utilizzi Vertex AI Agent Engine Memory Bank con Agent Development Kit, l'agente può orchestrare le chiamate per leggere e scrivere ricordi a lungo termine utilizzando Memory Bank.
Puoi utilizzare Memory Bank con le sessioni di Vertex AI Agent Engine per generare ricordi dalle sessioni archiviate utilizzando la seguente procedura:
(Sessioni) CreateSession: all'inizio di ogni conversazione, crea una nuova sessione. La cronologia delle conversazioni utilizzata dall'agente è limitata a questa sessione. Una sessione contiene la sequenza cronologica di messaggi e azioni (SessionEvents) per un'interazione tra un utente e il tuo agente. Tutte le sessioni devono avere un ID utente; i ricordi estratti (vedi GenerateMemories) per questa sessione vengono mappati a questo utente.
(Sessioni) AppendEvent: man mano che l'utente interagisce con l'agente, gli eventi (ad esempio messaggi dell'utente, risposte dell'agente, azioni dello strumento) vengono caricati in Sessioni. Gli eventi mantengono la cronologia delle conversazioni e creano un record della conversazione che può essere utilizzato per generare ricordi.
(Sessioni) ListEvents: man mano che l'utente interagisce con l'agente, quest'ultimo recupera la cronologia delle conversazioni.
(Banca dei ricordi) Genera o crea ricordi:
GenerateMemories: a un intervallo specificato (ad esempio alla fine di ogni sessione o di ogni turno), l'agente può attivare la generazione di ricordi utilizzando la cronologia delle conversazioni. I fatti relativi all'utente vengono estratti automaticamente dalla cronologia delle conversazioni in modo che siano disponibili per le sessioni attuali o future.
CreateMemory: il tuo agente può scrivere ricordi direttamente in Memory Bank. Ad esempio, l'agente può decidere quando scrivere un ricordo e quali informazioni salvare (memoria come strumento). Utilizza CreateMemory quando vuoi che l'agente abbia un maggiore controllo sui fatti estratti.
(Memory Bank) RetrieveMemories: man mano che l'utente interagisce con il tuo agente, quest'ultimo può recuperare i ricordi salvati sull'utente. Puoi recuperare tutti i ricordi (recupero semplice) o solo quelli più pertinenti alla conversazione corrente (recupero tramite ricerca di similarità). Poi puoi inserire i ricordi recuperati nel prompt.
Guide rapide
Inizia a utilizzare Memory Bank con le seguenti guide rapide:
Guida rapida che utilizza l'API REST: segui la guida rapida all'API REST per effettuare chiamate API direttamente a Sessioni e Memory Bank di Vertex AI Agent Engine.
Oltre alle responsabilità in materia di sicurezza descritte in Responsabilità condivisa di Vertex AI, considera il rischio di prompt injection e memory poisoning che possono influire sul tuo agente quando utilizzi le memorie a lungo termine. L'avvelenamento della memoria si verifica quando vengono memorizzate informazioni false in Memory Bank. L'agente potrebbe quindi operare su queste informazioni false o dannose nelle sessioni future.
Per ridurre il rischio di avvelenamento della memoria, puoi procedere nel seguente modo:
Model Armor: utilizza Model Armor per esaminare i prompt inviati a Memory Bank o dal tuo agente.
Test avversariale: testa in modo proattivo la tua applicazione LLM per verificare la presenza di vulnerabilità di prompt injection simulando attacchi. Questa procedura è in genere nota come "red teaming".
Esecuzione in sandbox: se l'agente ha la possibilità di eseguire o interagire con sistemi esterni o critici, queste azioni devono essere eseguite in un ambiente sandbox con un rigoroso controllo dell'accesso e una revisione umana.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# Vertex AI Agent Engine Memory Bank overview\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nVertex AI Agent Engine Memory Bank lets you dynamically generate long-term memories based on users' conversations with your agent. Long-term memories are personalized information that can be accessed across multiple sessions for a particular user. The agent can use the memories to personalize responses to the user and create cross-session continuity.\n\nFeatures of Memory Bank include the following:\n\n- Persistent storage of memories that can be accessed from multiple environments. You can use Vertex AI Agent Engine Sessions and Memory Bank with your deployed agent on Vertex AI Agent Engine Runtime, from your local environment, or with other deployment options.\n\n- Large language model (LLM)-based extraction of memories from conversation history.\n\n- Memories are remotely generated asynchronously, so the agent doesn't need to wait for memories to be generated.\n\n- Similarity search-based retrieval of memories scoped to an identity ([`scope`](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/fetch-memories#scope-based)).\n\n- If you use Vertex AI Agent Engine Memory Bank with Agent Development Kit, your agent can orchestrate calls to read and write long-term memories using Memory Bank.\n\nYou can use Memory Bank with Vertex AI Agent Engine Sessions to generate memories from stored sessions using the following process:\n\n1. **(Sessions) `CreateSession`** : At the start of each conversation, create a new session. The conversation history used by the agent is scoped to this session. A session contains the chronological sequence of messages and actions (`SessionEvents`) for an interaction between a user and your agent. All sessions must have a user ID; the extracted memories (see `GenerateMemories`) for this session are mapped to this user.\n\n2. **(Sessions) `AppendEvent`**: As the user interacts with the agent, events (such as user messages, agent responses, tool actions) are uploaded to Sessions. The events persist conversation history and create a record of the conversation that can be used to generate memories.\n\n3. **(Sessions) `ListEvents`**: As the user interacts with the agent, the agent retrieves the conversation history.\n\n4. **(Memory Bank)** Generate or create memories:\n\n - **`GenerateMemories`**: At a specified interval (such as the end of every session or the end of every turn), the agent can trigger memories to be generated using conversation history. Facts about the user are automatically extracted from the conversation history so that they're available for current or future sessions.\n\n - **`CreateMemory`** : Your agent can write memories directly to Memory Bank. For example, the agent can decide when a memory should be written and what information should be saved (memory-as-a-tool). Use `CreateMemory` when you want your agent to have more control over what facts are extracted.\n\n5. **(Memory Bank) `RetrieveMemories`**: As the user interacts with your agent, the agent can retrieve memories saved about that user. You can either retrieve all memories (simple retrieval) or only the most relevant memories to the current conversation (similarity search retrieval). Then you can insert the retrieved memories into your prompt.\n\nQuickstarts\n-----------\n\nGet started with Memory Bank using the following quickstarts:\n\n- [**Quickstart using REST API**](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/quickstart-api): Follow the REST API quickstart to make API calls directly to Vertex AI Agent Engine Sessions and Memory Bank.\n\n- [**Quickstart using Agent Development Kit (ADK)**](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/quickstart-adk): Follow the Agent Development Kit (ADK) quickstart if you want your ADK agent to orchestrate calls to Vertex AI Agent Engine Sessions and Memory Bank for you.\n\nSecurity risks of prompt injection\n----------------------------------\n\nIn addition to the security responsibilities outlined in [Vertex AI shared responsibility](/vertex-ai/docs/shared-responsibility), consider the risk of prompt injection and memory poisoning that can affect your agent when using long-term memories. Memory poisoning occurs when false information is stored in Memory Bank. The agent may then operate on this false or malicious information in future sessions.\n\nTo mitigate the risk of memory poisoning, you can do the following:\n\n- **Model Armor** : Use [Model Armor](/security-command-center/docs/model-armor-overview) to inspect prompts being sent to Memory Bank or from your agent.\n\n- **Adversarial testing**: Proactively test your LLM application for prompt injection vulnerabilities by simulating attacks. This is typically known as \"red teaming.\"\n\n- **Sandbox execution**: If the agent has the ability to execute or interact with external or critical systems, these actions should be performed in a sandboxed environment with strict access control and human review.\n\nFor more information, see [Google's Approach for Secure AI Agents](https://research.google/pubs/an-introduction-to-googles-approach-for-secure-ai-agents/).\n\nWhat's next\n-----------\n\n- [Set up Memory Bank](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/set-up).\n- [Quickstart with Agent Development Kit](/vertex-ai/generative-ai/docs//agent-engine/memory-bank/quickstart-adk).\n- [Quickstart with Vertex AI Agent Engine SDK](/vertex-ai/generative-ai/docs//agent-engine/memory-bank/quickstart-api)."]]