Los modelos de lenguaje grandes (LLM) son potentes, pero tienen dos limitaciones principales: su conocimiento se congela en el momento de su entrenamiento y no pueden interactuar con el mundo exterior. Esto significa que no pueden acceder a datos en tiempo real ni realizar acciones como reservar una reunión o actualizar un registro de cliente.
El Protocolo de contexto del modelo (MCP) es un estándar abierto diseñado para resolver este problema. Presentado por Anthropic en noviembre de 2024, MCP proporciona un “lenguaje” seguro y estandarizado para que los LLM se comuniquen con datos, aplicaciones y servicios externos. Actúa como un puente, lo que permite que la IA vaya más allá del conocimiento estático y se convierta en un agente dinámico que puede recuperar información actual y tomar medidas, lo que la hace más precisa, útil y automatizada.
El MCP crea una conexión bidireccional estandarizada para las aplicaciones de IA, lo que permite que los LLM se conecten fácilmente con varias fuentes de datos y herramientas. MCP se basa en conceptos existentes como el uso de herramientas y la llamada a funciones, pero los estandariza. Esto reduce la necesidad de conexiones personalizadas para cada nuevo modelo de IA y sistema externo. Permite que los LLM usen datos actuales del mundo real, realicen acciones y accedan a funciones especializadas que no se incluyen en su entrenamiento original.
El protocolo de contexto del modelo tiene una estructura clara con componentes que trabajan juntos para ayudar a los LLM y a los sistemas externos a interactuar fácilmente.
El LLM está contenido en el host de MCP, una aplicación o entorno de IA, como un IDE potenciado por IA o una IA conversacional. Este suele ser el punto de interacción del usuario, en el que el host de MCP usa el LLM para procesar solicitudes que pueden requerir datos o herramientas externas.
El cliente de MCP, ubicado en el host de MCP, ayuda a que el LLM y el servidor de MCP se comuniquen entre sí. Traduce las solicitudes del LLM para el MCP y convierte las respuestas del MCP para el LLM. También encuentra y usa los servidores de MCP disponibles.
El servidor de MCP es el servicio externo que proporciona contexto, datos o capacidades al LLM. Ayuda a los LLM conectándose a sistemas externos como bases de datos y servicios web, traduciendo sus respuestas a un formato que el LLM pueda entender, lo que ayuda a los desarrolladores a proporcionar diversas funcionalidades.
La capa de transporte usa mensajes JSON-RPC 2.0 para comunicarse entre el cliente y el servidor, principalmente a través de dos métodos de transporte:
En esencia, el Protocolo de contexto del modelo permite que un LLM solicite ayuda de herramientas externas para responder una consulta o completar una tarea. Imagina que le pides a un asistente de IA: “Busca el informe de ventas más reciente en nuestra base de datos y envíaselo por correo electrónico a mi gerente”.
Aquí se muestra una versión simplificada de cómo MCP manejaría esto:
Tanto el Protocolo de Contexto del Modelo (MCP) como la Generación Mejorada por Recuperación (RAG) mejoran los LLM con información externa, pero lo hacen de diferentes maneras y cumplen propósitos distintos. RAG encuentra y usa información para crear texto, mientras que MCP es un sistema más amplio para la interacción y la acción.
Función | Model Context Protocol (MCP) | Generación mejorada por recuperación (RAG) |
Objetivo principal | Estandarizar la comunicación bidireccional para que los LLM accedan a herramientas, fuentes de datos y servicios externos e interactúen con ellos para realizar acciones junto con la recuperación de información. | Mejora las respuestas de los LLM recuperando información pertinente de una base de conocimiento autorizada antes de generar una respuesta. |
Mecanismos | Define un protocolo estandarizado para que las aplicaciones de LLM invoquen funciones externas o soliciten datos estructurados de servidores especializados, lo que permite acciones y la integración de contexto dinámico. | Incorpora un componente de recuperación de información que usa la consulta de un usuario para extraer información de una base de conocimiento o una fuente de datos. Luego, esta información recuperada aumenta la instrucción del LLM. |
Tipo de salida | Permite que los LLM generen llamadas estructuradas para las herramientas, reciban resultados y, luego, generen texto legible por humanos basado en esos resultados y acciones. También puede incluir datos y funciones en tiempo real. | Los LLM generan respuestas basadas en sus datos de entrenamiento aumentados por texto pertinente a la consulta de documentos externos. A menudo, se enfoca en la exactitud de los hechos. |
Interacción | Diseñado para la interacción activa y la ejecución de tareas en sistemas externos, lo que proporciona una “gramática” para que los LLM “utilicen” capacidades externas. | Principalmente para la recuperación pasiva de información para fundamentar la generación de texto; no suele usarse para ejecutar acciones en sistemas externos. |
Estandarización | Es un estándar abierto sobre cómo las aplicaciones de IA proporcionan contexto a los LLM, lo que estandariza la integración y reduce la necesidad de APIs personalizadas. | Es una técnica o marco de trabajo para mejorar los LLMs, pero no un protocolo universal para la interacción con herramientas de diferentes proveedores o sistemas. |
Casos de uso | Agentes de IA que realizan tareas (por ejemplo, reservar vuelos, actualizar CRM, ejecutar código), obtener datos en tiempo real, integraciones avanzadas. | Sistemas de respuesta a preguntas, chatbots que proporcionan información fáctica actualizada, resumen de documentos, reducción de alucinaciones en la generación de texto. |
Función
Model Context Protocol (MCP)
Generación mejorada por recuperación (RAG)
Objetivo principal
Estandarizar la comunicación bidireccional para que los LLM accedan a herramientas, fuentes de datos y servicios externos e interactúen con ellos para realizar acciones junto con la recuperación de información.
Mejora las respuestas de los LLM recuperando información pertinente de una base de conocimiento autorizada antes de generar una respuesta.
Mecanismos
Define un protocolo estandarizado para que las aplicaciones de LLM invoquen funciones externas o soliciten datos estructurados de servidores especializados, lo que permite acciones y la integración de contexto dinámico.
Incorpora un componente de recuperación de información que usa la consulta de un usuario para extraer información de una base de conocimiento o una fuente de datos. Luego, esta información recuperada aumenta la instrucción del LLM.
Tipo de salida
Permite que los LLM generen llamadas estructuradas para las herramientas, reciban resultados y, luego, generen texto legible por humanos basado en esos resultados y acciones. También puede incluir datos y funciones en tiempo real.
Los LLM generan respuestas basadas en sus datos de entrenamiento aumentados por texto pertinente a la consulta de documentos externos. A menudo, se enfoca en la exactitud de los hechos.
Interacción
Diseñado para la interacción activa y la ejecución de tareas en sistemas externos, lo que proporciona una “gramática” para que los LLM “utilicen” capacidades externas.
Principalmente para la recuperación pasiva de información para fundamentar la generación de texto; no suele usarse para ejecutar acciones en sistemas externos.
Estandarización
Es un estándar abierto sobre cómo las aplicaciones de IA proporcionan contexto a los LLM, lo que estandariza la integración y reduce la necesidad de APIs personalizadas.
Es una técnica o marco de trabajo para mejorar los LLMs, pero no un protocolo universal para la interacción con herramientas de diferentes proveedores o sistemas.
Casos de uso
Agentes de IA que realizan tareas (por ejemplo, reservar vuelos, actualizar CRM, ejecutar código), obtener datos en tiempo real, integraciones avanzadas.
Sistemas de respuesta a preguntas, chatbots que proporcionan información fáctica actualizada, resumen de documentos, reducción de alucinaciones en la generación de texto.
El protocolo de contexto del modelo ofrece varias ventajas potenciales para desarrollar y, también, implementar aplicaciones potenciadas por IA, lo que hace que los LLM sean más versátiles, confiables y capaces.
Por su naturaleza, los LLM a veces pueden inventar hechos o producir información plausible, pero incorrecta (alucinar), porque predicen respuestas basadas en datos de entrenamiento, no en información en tiempo real. El MCP ayuda a reducir esto proporcionando una forma clara para que los LLM accedan a fuentes de datos externas y confiables, lo que hace que sus respuestas sean más veraces.
Este protocolo ayuda a la IA a hacer mucho más y a trabajar por sí sola. Por lo general, los LLM solo saben aquello con lo que se entrenaron, lo que puede quedar obsoleto rápidamente. Sin embargo, con MCP, los LLM pueden conectarse con muchas herramientas e integraciones listas para usar, como software empresarial, repositorios de contenido y entornos de desarrollo. Esto significa que la IA puede encargarse de trabajos más complicados que implican interactuar con el mundo real, como actualizar la información de los clientes en un sistema CRM, buscar eventos actuales en línea o realizar cálculos especiales. Con la conexión directa a estas herramientas externas, los LLM ya no son solo programas de chat, sino que se convierten en agentes inteligentes que pueden actuar de forma independiente, lo que significa que se puede automatizar mucho más.
Antes de MCP, conectar LLM a diferentes fuentes de datos y herramientas externas era más difícil, ya que generalmente se necesitaban conexiones especiales o se usaban métodos específicos para cada proveedor. Esto dio como resultado un sistema complicado y desordenado, a menudo llamado el problema "N x M", porque la cantidad de conexiones personalizadas necesarias creció muy rápido con cada nuevo modelo o herramienta. MCP ofrece un estándar común y abierto que facilita estas conexiones, de manera similar a como un puerto USB-C simplifica la conexión de dispositivos. Este método más simple puede reducir los costos de desarrollo, acelerar la creación de aplicaciones de IA y crear un entorno de IA más conectado. Los desarrolladores también pueden cambiar de proveedor de LLM con más facilidad y agregar nuevas herramientas sin realizar cambios importantes.
Si bien Model Context Protocol mejora las capacidades de los LLM conectándolos a sistemas externos, también puede abrir importantes consideraciones de seguridad. Como MCP puede acceder a cualquier dato y, potencialmente, ejecutar código a través de herramientas conectadas, es esencial una seguridad sólida.
Los principios clave de seguridad para MCP incluyen lo siguiente:
Si se apegan a estos principios, los desarrolladores pueden aprovechar el poder de MCP y, al mismo tiempo, protegerse contra los riesgos potenciales.
La implementación del protocolo de contexto del modelo requiere una infraestructura sólida para alojar el LLM, los servidores MCP y las fuentes de datos subyacentes. Una plataforma en la nube proporciona los componentes escalables y seguros necesarios para crear una solución completa. Aquí te indicamos cómo puedes abordarlo:
Los servidores de MCP son el puente hacia tus herramientas externas. Según tus necesidades, puedes elegir entre las siguientes opciones:
Gran parte del valor de MCP proviene de las herramientas a las que puede acceder. Puedes conectar tu LLM a lo siguiente:
Una plataforma de IA unificada es esencial para vincular todo. Vertex AI te ayuda a administrar todo el ciclo de vida de tu aplicación potenciada por MCP:
Comienza a desarrollar en Google Cloud con el crédito gratis de $300 y los más de 20 productos del nivel Siempre gratuito.