Los modelos de lenguaje extenso (LLM) son potentes, pero tienen dos limitaciones importantes: su conocimiento está congelado en el momento de su entrenamiento y no pueden interactuar con el mundo exterior. Esto significa que no pueden acceder a datos en tiempo real ni realizar acciones como reservar una reunión o actualizar el registro de un cliente.
El protocolo de contexto de modelo (MCP) es un estándar abierto diseñado para resolver este problema. Presentado por Anthropic en noviembre del 2024, MCP proporciona un "lenguaje" seguro y estandarizado para que los LLM se comuniquen con datos, aplicaciones y servicios externos. Actúa como un puente que permite que la IA vaya más allá del conocimiento estático y se convierta en un agente dinámico que puede recuperar información actualizada y tomar medidas, lo que la hace más precisa, útil y automatizada.
El MCP crea una conexión bidireccional estandarizada para las aplicaciones de IA, lo que permite que los LLMs se conecten fácilmente con diversas fuentes de datos y herramientas. El MCP se basa en conceptos ya existentes, como el uso de herramientas y la llamada a funciones, pero los estandariza. De esta forma, se reduce la necesidad de crear conexiones personalizadas para cada nuevo modelo de IA y sistema externo. Permite que los LLM usen datos actuales del mundo real, realicen acciones y accedan a funciones especializadas que no se incluyeron en su entrenamiento original.
El protocolo de contexto del modelo tiene una estructura clara con componentes que funcionan conjuntamente para ayudar a los LLM y a los sistemas externos a interactuar fácilmente.
El LLM está contenido en el host de MCP, una aplicación o un entorno de IA, como un IDE basado en IA o una IA conversacional. Este es el punto de interacción del usuario, donde el host de MCP usa el LLM para procesar solicitudes que pueden requerir datos o herramientas externos.
El cliente de MCP, que se encuentra en el host de MCP, ayuda a que el LLM y el servidor de MCP se comuniquen entre sí. Traduce las solicitudes del LLM para el MCP y convierte las respuestas del MCP para el LLM. También busca y usa los servidores de MCP disponibles.
El servidor de MCP es el servicio externo que proporciona contexto, datos o funciones al LLM. Ayuda a los LLM conectándose a sistemas externos, como bases de datos y servicios web, y traduciendo sus respuestas a un formato que el LLM pueda entender, lo que ayuda a los desarrolladores a proporcionar diversas funcionalidades.
La capa de transporte usa mensajes JSON-RPC 2.0 para comunicarse entre el cliente y el servidor, principalmente a través de dos métodos de transporte:
En esencia, el protocolo de contexto del modelo permite que un LLM solicite ayuda a herramientas externas para responder a una consulta o completar una tarea. Imagina que le pides a un asistente de IA lo siguiente: "Busca el último informe de ventas en nuestra base de datos y envíaselo por correo a mi jefe".
A continuación, te mostramos de forma simplificada cómo gestionaría este proceso MCP:
Tanto el protocolo de contexto de modelo (MCP) como la generación aumentada por recuperación (RAG) mejoran los LLM con información externa, pero lo hacen de diferentes maneras y con distintos fines. La RAG busca y usa información para crear texto, mientras que el MCP es un sistema más amplio para la interacción y la acción.
Función | Protocolo de contexto de modelo (MCP) | Generación aumentada por recuperación (RAG) |
Objetivo principal | Estandariza la comunicación bidireccional para que los LLM puedan acceder a herramientas, fuentes de datos y servicios externos, e interactuar con ellos para realizar acciones y extraer información. | Mejora las respuestas de los LLMs recuperando información de una base de conocimientos autorizada antes de generar una respuesta. |
Mecanismo | Define un protocolo estandarizado para que las aplicaciones de LLM invoquen funciones externas o soliciten datos estructurados a servidores especializados, lo que permite realizar acciones e integrar el contexto de forma dinámica. | Incorpora un componente de recuperación de información que usa la consulta de un usuario para extraer información de una base de conocimientos o una fuente de datos. A continuación, esta información obtenida se añade a la petición del LLM. |
Tipo de salida | Permite que los LLM generen llamadas estructuradas para herramientas, reciban resultados y, a continuación, generen texto legible para humanos basándose en esos resultados y acciones. También puede implicar datos y funciones en tiempo real. | Los LLM generan respuestas basadas en sus datos de entrenamiento aumentados con texto relevante para la consulta de documentos externos. Suele centrarse en la precisión de los datos. |
Interacción | Diseñado para la interacción activa y la ejecución de tareas en sistemas externos, proporcionando una "gramática" para que los LLM "utilicen" las funciones externas. | Principalmente para la recuperación pasiva de información que sirva de base para la generación de texto; no suele utilizarse para ejecutar acciones en sistemas externos. |
Estandarización | Un estándar abierto sobre cómo las aplicaciones de IA proporcionan contexto a los LLM, estandarizando la integración y reduciendo la necesidad de APIs personalizadas. | Una técnica o un marco para mejorar los LLM, pero no un protocolo universal para la interacción con herramientas de distintos proveedores o sistemas. |
Casos prácticos | Agentes de IA que realizan tareas (por ejemplo, reservar vuelos, actualizar el CRM o ejecutar código), obtienen datos en tiempo real e integraciones avanzadas. | Sistemas de preguntas y respuestas, chatbots que proporcionan información objetiva actualizada, resumen de documentos, reducción de las alucinaciones en la generación de texto. |
Función
Protocolo de contexto de modelo (MCP)
Generación aumentada por recuperación (RAG)
Objetivo principal
Estandariza la comunicación bidireccional para que los LLM puedan acceder a herramientas, fuentes de datos y servicios externos, e interactuar con ellos para realizar acciones y extraer información.
Mejora las respuestas de los LLMs recuperando información de una base de conocimientos autorizada antes de generar una respuesta.
Mecanismo
Define un protocolo estandarizado para que las aplicaciones de LLM invoquen funciones externas o soliciten datos estructurados a servidores especializados, lo que permite realizar acciones e integrar el contexto de forma dinámica.
Incorpora un componente de recuperación de información que usa la consulta de un usuario para extraer información de una base de conocimientos o una fuente de datos. A continuación, esta información obtenida se añade a la petición del LLM.
Tipo de salida
Permite que los LLM generen llamadas estructuradas para herramientas, reciban resultados y, a continuación, generen texto legible para humanos basándose en esos resultados y acciones. También puede implicar datos y funciones en tiempo real.
Los LLM generan respuestas basadas en sus datos de entrenamiento aumentados con texto relevante para la consulta de documentos externos. Suele centrarse en la precisión de los datos.
Interacción
Diseñado para la interacción activa y la ejecución de tareas en sistemas externos, proporcionando una "gramática" para que los LLM "utilicen" las funciones externas.
Principalmente para la recuperación pasiva de información que sirva de base para la generación de texto; no suele utilizarse para ejecutar acciones en sistemas externos.
Estandarización
Un estándar abierto sobre cómo las aplicaciones de IA proporcionan contexto a los LLM, estandarizando la integración y reduciendo la necesidad de APIs personalizadas.
Una técnica o un marco para mejorar los LLM, pero no un protocolo universal para la interacción con herramientas de distintos proveedores o sistemas.
Casos prácticos
Agentes de IA que realizan tareas (por ejemplo, reservar vuelos, actualizar el CRM o ejecutar código), obtienen datos en tiempo real e integraciones avanzadas.
Sistemas de preguntas y respuestas, chatbots que proporcionan información objetiva actualizada, resumen de documentos, reducción de las alucinaciones en la generación de texto.
El protocolo de contexto del modelo ofrece varias ventajas potenciales para desarrollar e implementar aplicaciones basadas en IA, lo que hace que los LLM sean más versátiles, fiables y capaces.
Los LLM, por su naturaleza, a veces pueden inventarse hechos o producir información plausible pero incorrecta (alucinar) porque predicen respuestas basándose en datos de entrenamiento, no en información en tiempo real. MCP ayuda a reducir este problema, ya que proporciona una forma clara de que los LLM accedan a fuentes de datos externas y fiables, lo que hace que sus respuestas sean más veraces.
Este protocolo ayuda a la IA a hacer mucho más y a trabajar por su cuenta. Normalmente, los LLMs solo saben aquello con lo que se han entrenado, lo que puede quedar obsoleto rápidamente. Sin embargo, con MCP, los LLM pueden conectarse con muchas herramientas e integraciones listas para usar, como software empresarial, repositorios de contenido y entornos de desarrollo. Esto significa que la IA puede encargarse de tareas más complejas que implican interactuar con el mundo real, como actualizar la información de los clientes en un sistema de CRM, buscar acontecimientos actuales online o hacer cálculos especiales. Al conectarse directamente a estas herramientas externas, los LLM dejan de ser solo programas de chat y se convierten en agentes inteligentes que pueden actuar de forma independiente, lo que significa que se puede automatizar mucho más.
Antes del MCP, conectar LLM a diferentes fuentes de datos y herramientas externas era más difícil, ya que normalmente se necesitaban conexiones especiales o métodos específicos de cada proveedor. Esto dio lugar a un sistema complicado y desordenado, a menudo denominado el problema "N x M", porque el número de conexiones personalizadas necesarias crecía muy rápidamente con cada nuevo modelo o herramienta. MCP ofrece un estándar común y abierto que facilita estas conexiones, de forma similar a como un puerto USB-C simplifica la conexión de dispositivos. Este método más sencillo puede reducir los costes de desarrollo, acelerar la creación de aplicaciones de IA y crear un entorno de IA más conectado. Los desarrolladores también pueden cambiar más fácilmente de proveedor de LLM y añadir nuevas herramientas sin hacer grandes cambios.
Aunque el protocolo de contexto del modelo mejora las funciones de los LLM al conectarlos con sistemas externos, también puede plantear importantes consideraciones de seguridad. Como MCP puede acceder a cualquier dato y, potencialmente, ejecutar código a través de las herramientas conectadas, es esencial que tenga una seguridad sólida.
Los principios de seguridad clave de MCP incluyen lo siguiente:
Si los desarrolladores se ciñen a estos principios, podrán aprovechar el potencial de MCP y, al mismo tiempo, protegerse de los posibles riesgos.
Para implementar el protocolo de contexto de modelo, se necesita una infraestructura sólida que aloje el LLM, los servidores de MCP y las fuentes de datos subyacentes. Una plataforma en la nube proporciona los componentes escalables y seguros necesarios para crear una solución completa. Aquí te explicamos cómo puedes hacerlo:
Los servidores de MCP son el puente hacia tus herramientas externas. En función de tus necesidades, puedes elegir entre:
Gran parte del valor de MCP procede de las herramientas a las que puede acceder. Puedes conectar tu LLM a:
Una plataforma de IA unificada es esencial para que todo encaje. Vertex AI te ayuda a gestionar todo el ciclo de vida de tu aplicación basada en MCP:
Empieza a crear en Google Cloud con 300 USD en crédito gratis y más de 20 productos Always Free.