¿Qué es el MCP y cómo funciona?

Los modelos de lenguaje grandes (LLM) son potentes, pero tienen dos limitaciones principales: su conocimiento se congela en el momento de su entrenamiento y no pueden interactuar con el mundo exterior. Esto significa que no pueden acceder a datos en tiempo real ni realizar acciones como reservar una reunión o actualizar un registro de cliente. 

El Protocolo de contexto del modelo (MCP) es un estándar abierto diseñado para resolver este problema. Presentado por Anthropic en noviembre de 2024, MCP proporciona un “lenguaje” seguro y estandarizado para que los LLM se comuniquen con datos, aplicaciones y servicios externos. Actúa como un puente, lo que permite que la IA vaya más allá del conocimiento estático y se convierta en un agente dinámico que puede recuperar información actual y tomar medidas, lo que la hace más precisa, útil y automatizada.

Comprensión de Model Context Protocol

El MCP crea una conexión bidireccional estandarizada para las aplicaciones de IA, lo que permite que los LLM se conecten fácilmente con varias fuentes de datos y herramientas. MCP se basa en conceptos existentes como el uso de herramientas y la llamada a funciones, pero los estandariza. Esto reduce la necesidad de conexiones personalizadas para cada nuevo modelo de IA y sistema externo. Permite que los LLM usen datos actuales del mundo real, realicen acciones y accedan a funciones especializadas que no se incluyen en su entrenamiento original.

Arquitectura y componentes de MCP

El protocolo de contexto del modelo tiene una estructura clara con componentes que trabajan juntos para ayudar a los LLM y a los sistemas externos a interactuar fácilmente.

Host de MCP

El LLM está contenido en el host de MCP, una aplicación o entorno de IA, como un IDE potenciado por IA o una IA conversacional. Este suele ser el punto de interacción del usuario, en el que el host de MCP usa el LLM para procesar solicitudes que pueden requerir datos o herramientas externas.

Cliente de MCP

El cliente de MCP, ubicado en el host de MCP, ayuda a que el LLM y el servidor de MCP se comuniquen entre sí. Traduce las solicitudes del LLM para el MCP y convierte las respuestas del MCP para el LLM. También encuentra y usa los servidores de MCP disponibles.

Servidor de MCP

El servidor de MCP es el servicio externo que proporciona contexto, datos o capacidades al LLM. Ayuda a los LLM conectándose a sistemas externos como bases de datos y servicios web, traduciendo sus respuestas a un formato que el LLM pueda entender, lo que ayuda a los desarrolladores a proporcionar diversas funcionalidades.

Capa de transporte

La capa de transporte usa mensajes JSON-RPC 2.0 para comunicarse entre el cliente y el servidor, principalmente a través de dos métodos de transporte:

  • Entrada/salida estándar (stdio): Funciona bien para recursos locales y ofrece una transmisión de mensajes rápida y síncrona.
  • Eventos enviados por el servidor (SSE): Se prefieren para recursos remotos, lo que permite una transmisión de datos eficiente y en tiempo real.

¿Cómo funciona MCP?

En esencia, el Protocolo de contexto del modelo permite que un LLM solicite ayuda de herramientas externas para responder una consulta o completar una tarea. Imagina que le pides a un asistente de IA: “Busca el informe de ventas más reciente en nuestra base de datos y envíaselo por correo electrónico a mi gerente”.

Aquí se muestra una versión simplificada de cómo MCP manejaría esto:

  1. Solicitud y descubrimiento de herramientas: El LLM entiende que no puede acceder a una base de datos ni enviar correos electrónicos por sí solo. Usa el cliente de MCP para buscar herramientas disponibles, donde encuentra dos herramientas relevantes registradas en servidores de MCP: una herramienta database_query y una herramienta email_sender.
  2. Invocación de herramientas: El LLM genera una solicitud estructurada para usar estas herramientas. Primero, llama a la herramienta database_query y especifica el nombre del informe. Luego, el cliente de MCP envía esta solicitud al servidor de MCP adecuado.
  3. Acción externa y devolución de datos: El servidor de MCP recibe la solicitud, la traduce en una consulta en SQL segura para la base de datos de la empresa y recupera el informe de ventas. Luego, le da formato a estos datos y los envía de vuelta al LLM.
  4. Segunda acción y generación de respuesta: Ahora, con los datos del informe, el LLM llama a la herramienta email_sender y proporciona la dirección de correo electrónico del gerente y el contenido del informe. Después de enviar el correo electrónico, el servidor de MCP confirma que se completó la acción.
  5. Confirmación final: El LLM te proporciona una respuesta final: “Encontré el informe de ventas más reciente y se lo envié por correo electrónico a tu gerente”.

MCP en comparación con RAG

Tanto el Protocolo de Contexto del Modelo (MCP) como la Generación Mejorada por Recuperación (RAG) mejoran los LLM con información externa, pero lo hacen de diferentes maneras y cumplen propósitos distintos. RAG encuentra y usa información para crear texto, mientras que MCP es un sistema más amplio para la interacción y la acción.

Función

Model Context Protocol (MCP)

Generación mejorada por recuperación (RAG)

Objetivo principal

Estandarizar la comunicación bidireccional para que los LLM accedan a herramientas, fuentes de datos y servicios externos e interactúen con ellos para realizar acciones junto con la recuperación de información.

Mejora las respuestas de los LLM recuperando información pertinente de una base de conocimiento autorizada antes de generar una respuesta.

Mecanismos

Define un protocolo estandarizado para que las aplicaciones de LLM invoquen funciones externas o soliciten datos estructurados de servidores especializados, lo que permite acciones y la integración de contexto dinámico.

Incorpora un componente de recuperación de información que usa la consulta de un usuario para extraer información de una base de conocimiento o una fuente de datos. Luego, esta información recuperada aumenta la instrucción del LLM.

Tipo de salida

Permite que los LLM generen llamadas estructuradas para las herramientas, reciban resultados y, luego, generen texto legible por humanos basado en esos resultados y acciones. También puede incluir datos y funciones en tiempo real.

Los LLM generan respuestas basadas en sus datos de entrenamiento aumentados por texto pertinente a la consulta de documentos externos. A menudo, se enfoca en la exactitud de los hechos.

Interacción

Diseñado para la interacción activa y la ejecución de tareas en sistemas externos, lo que proporciona una “gramática” para que los LLM “utilicen” capacidades externas.

Principalmente para la recuperación pasiva de información para fundamentar la generación de texto; no suele usarse para ejecutar acciones en sistemas externos.

Estandarización

Es un estándar abierto sobre cómo las aplicaciones de IA proporcionan contexto a los LLM, lo que estandariza la integración y reduce la necesidad de APIs personalizadas.

Es una técnica o marco de trabajo para mejorar los LLMs, pero no un protocolo universal para la interacción con herramientas de diferentes proveedores o sistemas.

Casos de uso

Agentes de IA que realizan tareas (por ejemplo, reservar vuelos, actualizar CRM, ejecutar código), obtener datos en tiempo real, integraciones avanzadas.

Sistemas de respuesta a preguntas, chatbots que proporcionan información fáctica actualizada, resumen de documentos, reducción de alucinaciones en la generación de texto.

Función

Model Context Protocol (MCP)

Generación mejorada por recuperación (RAG)

Objetivo principal

Estandarizar la comunicación bidireccional para que los LLM accedan a herramientas, fuentes de datos y servicios externos e interactúen con ellos para realizar acciones junto con la recuperación de información.

Mejora las respuestas de los LLM recuperando información pertinente de una base de conocimiento autorizada antes de generar una respuesta.

Mecanismos

Define un protocolo estandarizado para que las aplicaciones de LLM invoquen funciones externas o soliciten datos estructurados de servidores especializados, lo que permite acciones y la integración de contexto dinámico.

Incorpora un componente de recuperación de información que usa la consulta de un usuario para extraer información de una base de conocimiento o una fuente de datos. Luego, esta información recuperada aumenta la instrucción del LLM.

Tipo de salida

Permite que los LLM generen llamadas estructuradas para las herramientas, reciban resultados y, luego, generen texto legible por humanos basado en esos resultados y acciones. También puede incluir datos y funciones en tiempo real.

Los LLM generan respuestas basadas en sus datos de entrenamiento aumentados por texto pertinente a la consulta de documentos externos. A menudo, se enfoca en la exactitud de los hechos.

Interacción

Diseñado para la interacción activa y la ejecución de tareas en sistemas externos, lo que proporciona una “gramática” para que los LLM “utilicen” capacidades externas.

Principalmente para la recuperación pasiva de información para fundamentar la generación de texto; no suele usarse para ejecutar acciones en sistemas externos.

Estandarización

Es un estándar abierto sobre cómo las aplicaciones de IA proporcionan contexto a los LLM, lo que estandariza la integración y reduce la necesidad de APIs personalizadas.

Es una técnica o marco de trabajo para mejorar los LLMs, pero no un protocolo universal para la interacción con herramientas de diferentes proveedores o sistemas.

Casos de uso

Agentes de IA que realizan tareas (por ejemplo, reservar vuelos, actualizar CRM, ejecutar código), obtener datos en tiempo real, integraciones avanzadas.

Sistemas de respuesta a preguntas, chatbots que proporcionan información fáctica actualizada, resumen de documentos, reducción de alucinaciones en la generación de texto.

Beneficios de usar MCP

El protocolo de contexto del modelo ofrece varias ventajas potenciales para desarrollar y, también, implementar aplicaciones potenciadas por IA, lo que hace que los LLM sean más versátiles, confiables y capaces.

Alucinaciones reducidas

Por su naturaleza, los LLM a veces pueden inventar hechos o producir información plausible, pero incorrecta (alucinar), porque predicen respuestas basadas en datos de entrenamiento, no en información en tiempo real. El MCP ayuda a reducir esto proporcionando una forma clara para que los LLM accedan a fuentes de datos externas y confiables, lo que hace que sus respuestas sean más veraces.

Mayor utilidad de la IA y automatización

Este protocolo ayuda a la IA a hacer mucho más y a trabajar por sí sola. Por lo general, los LLM solo saben aquello con lo que se entrenaron, lo que puede quedar obsoleto rápidamente. Sin embargo, con MCP, los LLM pueden conectarse con muchas herramientas e integraciones listas para usar, como software empresarial, repositorios de contenido y entornos de desarrollo. Esto significa que la IA puede encargarse de trabajos más complicados que implican interactuar con el mundo real, como actualizar la información de los clientes en un sistema CRM, buscar eventos actuales en línea o realizar cálculos especiales. Con la conexión directa a estas herramientas externas, los LLM ya no son solo programas de chat, sino que se convierten en agentes inteligentes que pueden actuar de forma independiente, lo que significa que se puede automatizar mucho más.

Conexiones más sencillas para la IA

Antes de MCP, conectar LLM a diferentes fuentes de datos y herramientas externas era más difícil, ya que generalmente se necesitaban conexiones especiales o se usaban métodos específicos para cada proveedor. Esto dio como resultado un sistema complicado y desordenado, a menudo llamado el problema "N x M", porque la cantidad de conexiones personalizadas necesarias creció muy rápido con cada nuevo modelo o herramienta. MCP ofrece un estándar común y abierto que facilita estas conexiones, de manera similar a como un puerto USB-C simplifica la conexión de dispositivos. Este método más simple puede reducir los costos de desarrollo, acelerar la creación de aplicaciones de IA y crear un entorno de IA más conectado. Los desarrolladores también pueden cambiar de proveedor de LLM con más facilidad y agregar nuevas herramientas sin realizar cambios importantes.

MCP y seguridad

Si bien Model Context Protocol mejora las capacidades de los LLM conectándolos a sistemas externos, también puede abrir importantes consideraciones de seguridad. Como MCP puede acceder a cualquier dato y, potencialmente, ejecutar código a través de herramientas conectadas, es esencial una seguridad sólida.

Los principios clave de seguridad para MCP incluyen lo siguiente:

  • Consentimiento y control del usuario: Los usuarios deben comprender claramente y aceptar todas las acciones y el acceso a los datos que el LLM realiza a través de MCP. Deberían poder controlar qué datos se comparten y qué acciones se realizan, idealmente a través de pantallas de autorización fáciles de usar.
  • Privacidad de los datos: Antes de exponer los datos de los usuarios a los servidores de MCP, los hosts deben obtener un permiso claro de los usuarios. Los datos sensibles deben protegerse con controles de acceso adecuados para evitar que se filtren o se compartan por accidente, especialmente porque los LLM manejan grandes cantidades de datos. Es esencial usar encriptación y reglas de control de acceso sólidas.
  • Seguridad de las herramientas: Las herramientas vinculadas a través de MCP se pueden usar para ejecutar código. Los desarrolladores no deben confiar en las descripciones de herramientas a menos que provengan de un servidor confiable. Los usuarios deben dar permiso antes de que se use cualquier herramienta y comprender lo que hace la herramienta antes de permitir que se ejecute.
  • Manejo seguro de la salida: Las salidas de LLM de las interacciones de MCP deben manejarse con cuidado para evitar problemas de seguridad como secuencias de comandos entre sitios (XSS) o ataques a otras aplicaciones web si la salida se muestra a los usuarios. Es importante limpiar correctamente la entrada y filtrar la salida, y evitar incluir datos sensibles en las instrucciones.
  • Seguridad de la cadena de suministro: La confiabilidad de los servidores de MCP y las herramientas externas a las que se conectan es muy importante. Las organizaciones deben asegurarse de que todas las partes de su cadena de suministro de LLM sean seguras para evitar resultados sesgados, incumplimientos de la seguridad o fallas.
  • Supervisión y auditoría: Comprobar con regularidad la actividad del LLM y cómo interactúa con los servidores de MCP puede ayudar a encontrar comportamientos inusuales o posibles usos inadecuados. Configurar sistemas de registro y auditoría sólidos permite hacer un seguimiento del movimiento de datos y el uso de herramientas, lo que ayuda a responder a incidentes de seguridad.

Si se apegan a estos principios, los desarrolladores pueden aprovechar el poder de MCP y, al mismo tiempo, protegerse contra los riesgos potenciales.

Compila e implementa una aplicación con MCP

La implementación del protocolo de contexto del modelo requiere una infraestructura sólida para alojar el LLM, los servidores MCP y las fuentes de datos subyacentes. Una plataforma en la nube proporciona los componentes escalables y seguros necesarios para crear una solución completa. Aquí te indicamos cómo puedes abordarlo:

Alojar y escalar tus servidores de MCP

Los servidores de MCP son el puente hacia tus herramientas externas. Según tus necesidades, puedes elegir entre las siguientes opciones:

  • Entornos sin servidores (como Cloud Run): Ideal para herramientas simples y sin estado. Una plataforma sin servidores escala automáticamente tus servidores en función de la demanda, incluso a cero, por lo que solo pagas por lo que usas. Esto es perfecto para implementar herramientas individuales de manera eficiente.
  • Organización de contenedores (como Google Kubernetes Engine [GKE]): Para aplicaciones complejas con estado que requieren un control detallado sobre las redes y los recursos, un entorno de Kubernetes administrado proporciona la potencia y la flexibilidad necesarias para ejecutar una infraestructura de MCP sofisticada a escala empresarial.

Conectar MCP a tus datos y herramientas

Gran parte del valor de MCP proviene de las herramientas a las que puede acceder. Puedes conectar tu LLM a lo siguiente:

  • Bases de datos administradas (como Cloud SQL o Spanner): Permiten que tu IA consulte de forma segura bases de datos relacionales para obtener información de clientes, inventario o datos operativos.
  • Almacenes de datos (como BigQuery): Para tareas analíticas, un LLM puede aprovechar un almacén de datos para analizar conjuntos de datos masivos y obtener estadísticas contextuales profundas en respuesta a la consulta de un usuario.

Organización del flujo de trabajo de IA de extremo a extremo con Vertex AI

Una plataforma de IA unificada es esencial para vincular todo. Vertex AI te ayuda a administrar todo el ciclo de vida de tu aplicación potenciada por MCP:

  • Alojamiento de LLM: Implementa y administra modelos de base potentes como Gemini, que sirven como el “cerebro” de tu aplicación.
  • Frameworks de agentes y organización: Crear un agente de IA implica flujos de trabajo complejos. Vertex AI proporciona herramientas para optimizar el flujo de información entre el LLM y el contexto proporcionado por tus servidores MCP, lo que simplifica el desarrollo de agentes sofisticados que pueden razonar y actuar.

Da el siguiente paso

Comienza a desarrollar en Google Cloud con el crédito gratis de $300 y los más de 20 productos del nivel Siempre gratuito.

Google Cloud