Descripción general del banco de memoria de Vertex AI Agent Engine
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
El banco de memoria de Vertex AI Agent Engine te permite generar de forma dinámica recuerdos a largo plazo basados en las conversaciones de los usuarios con tu agente. Las memorias a largo plazo son información personalizada a la que se puede acceder en varias sesiones para un usuario en particular. El agente puede usar las memorias para personalizar las respuestas al usuario y crear continuidad entre sesiones.
Las funciones de Memory Bank incluyen lo siguiente:
Almacenamiento persistente de recuerdos a los que se puede acceder desde varios entornos. Puedes usar las sesiones y el banco de memoria de Vertex AI Agent Engine con tu agente implementado en el entorno de ejecución de Vertex AI Agent Engine, desde tu entorno local o con otras opciones de implementación.
Extracción de recuerdos del historial de conversaciones basada en modelos de lenguaje grandes (LLM).
Los recuerdos se generan de forma remota y asíncrona, por lo que el agente no necesita esperar a que se generen.
Recuperación de recuerdos basada en la búsqueda de similitud y con alcance limitado a una identidad (scope).
Si usas el banco de memoria de Vertex AI Agent Engine con el Kit de desarrollo de agentes, tu agente puede coordinar llamadas para leer y escribir recuerdos a largo plazo con el banco de memoria.
Puedes usar Memory Bank con las sesiones de Vertex AI Agent Engine para generar recuerdos a partir de las sesiones almacenadas con el siguiente proceso:
(Sesiones) CreateSession: Al inicio de cada conversación, crea una sesión nueva. El historial de conversaciones que usa el agente se limita a esta sesión. Una sesión contiene la secuencia cronológica de mensajes y acciones (SessionEvents) para una interacción entre un usuario y tu agente. Todas las sesiones deben tener un ID de usuario. Los recuerdos extraídos (consulta GenerateMemories) de esta sesión se asignan a este usuario.
(Sesiones) AppendEvent: A medida que el usuario interactúa con el agente, los eventos (como los mensajes del usuario, las respuestas del agente y las acciones de herramientas) se suben a Sesiones. Los eventos conservan el historial de conversaciones y crean un registro de la conversación que se puede usar para generar recuerdos.
(Sesiones) ListEvents: A medida que el usuario interactúa con el agente, este recupera el historial de conversaciones.
(Banco de recuerdos) Genera o crea recuerdos:
GenerateMemories: En un intervalo especificado (como el final de cada sesión o el final de cada turno), el agente puede activar la generación de recuerdos a partir del historial de conversaciones. Los datos sobre el usuario se extraen automáticamente del historial de conversación para que estén disponibles en sesiones actuales o futuras.
CreateMemory: Tu agente puede escribir recuerdos directamente en Memory Bank. Por ejemplo, el agente puede decidir cuándo se debe escribir un recuerdo y qué información se debe guardar (memoria como herramienta). Usa CreateMemory cuando quieras que tu agente tenga más control sobre qué hechos se extraen.
(Banco de memoria) RetrieveMemories: A medida que el usuario interactúa con tu agente, este puede recuperar los recuerdos guardados sobre ese usuario. Puedes recuperar todos los recuerdos (recuperación simple) o solo los más relevantes para la conversación actual (recuperación por búsqueda de similitud). Luego, puedes insertar los recuerdos recuperados en tu instrucción.
Guías de inicio rápido
Comienza a usar Memory Bank con las siguientes guías de inicio rápido:
Guía de inicio rápido con la API de REST: Sigue la guía de inicio rápido de la API de REST para realizar llamadas a la API directamente a las sesiones y al banco de memoria de Vertex AI Agent Engine.
Guía de inicio rápido con el kit de desarrollo de agentes (ADK): Sigue la guía de inicio rápido del kit de desarrollo de agentes (ADK) si quieres que tu agente de ADK coordine las llamadas a las sesiones de Vertex AI Agent Engine y al banco de memoria por ti.
Riesgos de seguridad de la inyección de instrucciones
Además de las responsabilidades de seguridad que se describen en Responsabilidad compartida de Vertex AI, considera el riesgo de inyección de instrucciones y contaminación de la memoria que pueden afectar a tu agente cuando usa recuerdos a largo plazo. El envenenamiento de la memoria se produce cuando se almacena información falsa en Memory Bank. Luego, el agente puede operar con esta información falsa o maliciosa en sesiones futuras.
Para mitigar el riesgo de contaminación de la memoria, puedes hacer lo siguiente:
Model Armor: Usa Model Armor para inspeccionar las instrucciones que se envían a Memory Bank o desde tu agente.
Pruebas adversarias: Realiza pruebas de forma proactiva en tu aplicación basada en LLM para detectar vulnerabilidades de inyección de instrucciones simulando ataques. Esto se conoce comúnmente como "red teaming".
Ejecución en zona de pruebas: Si el agente tiene la capacidad de ejecutar o interactuar con sistemas externos o críticos, estas acciones deben realizarse en un entorno de zona de pruebas con un control de acceso estricto y una revisión humana.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Vertex AI Agent Engine Memory Bank overview\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nVertex AI Agent Engine Memory Bank lets you dynamically generate long-term memories based on users' conversations with your agent. Long-term memories are personalized information that can be accessed across multiple sessions for a particular user. The agent can use the memories to personalize responses to the user and create cross-session continuity.\n\nFeatures of Memory Bank include the following:\n\n- Persistent storage of memories that can be accessed from multiple environments. You can use Vertex AI Agent Engine Sessions and Memory Bank with your deployed agent on Vertex AI Agent Engine Runtime, from your local environment, or with other deployment options.\n\n- Large language model (LLM)-based extraction of memories from conversation history.\n\n- Memories are remotely generated asynchronously, so the agent doesn't need to wait for memories to be generated.\n\n- Similarity search-based retrieval of memories scoped to an identity ([`scope`](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/fetch-memories#scope-based)).\n\n- If you use Vertex AI Agent Engine Memory Bank with Agent Development Kit, your agent can orchestrate calls to read and write long-term memories using Memory Bank.\n\nYou can use Memory Bank with Vertex AI Agent Engine Sessions to generate memories from stored sessions using the following process:\n\n1. **(Sessions) `CreateSession`** : At the start of each conversation, create a new session. The conversation history used by the agent is scoped to this session. A session contains the chronological sequence of messages and actions (`SessionEvents`) for an interaction between a user and your agent. All sessions must have a user ID; the extracted memories (see `GenerateMemories`) for this session are mapped to this user.\n\n2. **(Sessions) `AppendEvent`**: As the user interacts with the agent, events (such as user messages, agent responses, tool actions) are uploaded to Sessions. The events persist conversation history and create a record of the conversation that can be used to generate memories.\n\n3. **(Sessions) `ListEvents`**: As the user interacts with the agent, the agent retrieves the conversation history.\n\n4. **(Memory Bank)** Generate or create memories:\n\n - **`GenerateMemories`**: At a specified interval (such as the end of every session or the end of every turn), the agent can trigger memories to be generated using conversation history. Facts about the user are automatically extracted from the conversation history so that they're available for current or future sessions.\n\n - **`CreateMemory`** : Your agent can write memories directly to Memory Bank. For example, the agent can decide when a memory should be written and what information should be saved (memory-as-a-tool). Use `CreateMemory` when you want your agent to have more control over what facts are extracted.\n\n5. **(Memory Bank) `RetrieveMemories`**: As the user interacts with your agent, the agent can retrieve memories saved about that user. You can either retrieve all memories (simple retrieval) or only the most relevant memories to the current conversation (similarity search retrieval). Then you can insert the retrieved memories into your prompt.\n\nQuickstarts\n-----------\n\nGet started with Memory Bank using the following quickstarts:\n\n- [**Quickstart using REST API**](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/quickstart-api): Follow the REST API quickstart to make API calls directly to Vertex AI Agent Engine Sessions and Memory Bank.\n\n- [**Quickstart using Agent Development Kit (ADK)**](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/quickstart-adk): Follow the Agent Development Kit (ADK) quickstart if you want your ADK agent to orchestrate calls to Vertex AI Agent Engine Sessions and Memory Bank for you.\n\nSecurity risks of prompt injection\n----------------------------------\n\nIn addition to the security responsibilities outlined in [Vertex AI shared responsibility](/vertex-ai/docs/shared-responsibility), consider the risk of prompt injection and memory poisoning that can affect your agent when using long-term memories. Memory poisoning occurs when false information is stored in Memory Bank. The agent may then operate on this false or malicious information in future sessions.\n\nTo mitigate the risk of memory poisoning, you can do the following:\n\n- **Model Armor** : Use [Model Armor](/security-command-center/docs/model-armor-overview) to inspect prompts being sent to Memory Bank or from your agent.\n\n- **Adversarial testing**: Proactively test your LLM application for prompt injection vulnerabilities by simulating attacks. This is typically known as \"red teaming.\"\n\n- **Sandbox execution**: If the agent has the ability to execute or interact with external or critical systems, these actions should be performed in a sandboxed environment with strict access control and human review.\n\nFor more information, see [Google's Approach for Secure AI Agents](https://research.google/pubs/an-introduction-to-googles-approach-for-secure-ai-agents/).\n\nWhat's next\n-----------\n\n- [Set up Memory Bank](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/set-up).\n- [Quickstart with Agent Development Kit](/vertex-ai/generative-ai/docs//agent-engine/memory-bank/quickstart-adk).\n- [Quickstart with Vertex AI Agent Engine SDK](/vertex-ai/generative-ai/docs//agent-engine/memory-bank/quickstart-api)."]]