O que é o MCP e como ele funciona?

Modelos de linguagem grandes (LLMs) são poderosos, mas têm duas grandes limitações: o conhecimento deles é fixo no momento do treinamento e eles não podem interagir com o mundo externo. Isso significa que eles não podem acessar dados em tempo real ou realizar ações como agendar uma reunião ou atualizar um registro de cliente. 

O Protocolo de Contexto de Modelo (MCP) é um padrão aberto criado para resolver esse problema. Introduzido pela Anthropic em novembro de 2024, o MCP fornece uma "linguagem" segura e padronizada para que LLMs se comuniquem com dados, aplicativos e serviços externos. Ele atua como uma ponte, permitindo que a IA vá além do conhecimento estático e se torne um agente dinâmico que pode recuperar informações atuais e agir, tornando-a mais precisa, útil e automatizada.

Entender o protocolo de contexto do modelo

O MCP cria uma conexão bidirecional padronizada para aplicativos de IA, permitindo que LLMs se conectem facilmente a várias fontes de dados e ferramentas. O MCP se baseia em conceitos já existentes, como o uso de ferramentas e a chamada de função, mas os padroniza. Isso reduz a necessidade de conexões personalizadas para cada novo modelo de IA e sistema externo. Elas permitem que os LLMs usem dados atuais e do mundo real, realizem ações e acessem recursos especializados que não foram incluídos no treinamento original.

Arquitetura e componentes do MCP

O protocolo de contexto de modelo tem uma estrutura clara com componentes que trabalham juntos para ajudar os LLMs e sistemas externos a interagir com facilidade.

Host do MCP

O LLM está contido no host do MCP, um aplicativo ou ambiente de IA, como um IDE com tecnologia de IA ou IA de conversação. Esse é o ponto de interação do usuário, em que o host do MCP usa o LLM para processar solicitações que podem exigir dados ou ferramentas externas.

Cliente MCP

O cliente MCP, localizado no host MCP, ajuda o LLM e o servidor MCP a se comunicarem entre si. Ele traduz as solicitações do LLM para o MCP e converte as respostas do MCP para o LLM. Ele também encontra e usa servidores MCP disponíveis.

Servidor MCP

O servidor MCP é o serviço externo que fornece contexto, dados ou recursos ao LLM. Ele ajuda os LLMs ao se conectar a sistemas externos, como bancos de dados e serviços da Web, traduzindo as respostas em um formato que o LLM possa entender, o que ajuda os desenvolvedores a fornecer diversas funcionalidades.

Camada de transporte

A camada de transporte usa mensagens JSON-RPC 2.0 para se comunicar entre o cliente e o servidor, principalmente por meio de dois métodos de transporte:

  • Entrada/saída padrão (stdio): funciona bem para recursos locais, oferecendo transmissão de mensagens rápida e síncrona
  • Eventos enviados pelo servidor (SSE): preferível para recursos remotos, permitindo streaming de dados eficiente em tempo real

Como o MCP funciona?

Basicamente, o protocolo de contexto do modelo permite que um LLM peça ajuda a ferramentas externas para responder a uma consulta ou concluir uma tarefa. Imagine que você pede a um assistente de IA: "Encontre o relatório de vendas mais recente no nosso banco de dados e envie por e-mail para meu gerente."

Confira uma visão simplificada de como o MCP lida com isso:

  1. Descoberta de solicitações e ferramentas: o LLM entende que não pode acessar um banco de dados ou enviar e-mails por conta própria. Ele usa o cliente MCP para pesquisar ferramentas disponíveis, onde encontra duas ferramentas relevantes registradas nos servidores MCP: uma ferramenta de consulta de banco de dados e uma ferramenta de envio de e-mails.
  2. Invocação de ferramenta: o LLM gera uma solicitação estruturada para usar essas ferramentas. Primeiro, ele chama a ferramenta database_query, especificando o nome do relatório. O cliente do MCP envia essa solicitação ao servidor do MCP apropriado.
  3. Ação externa e retorno de dados: o servidor MCP recebe a solicitação, a traduz em uma consulta SQL segura para o banco de dados da empresa e recupera o relatório de vendas. Em seguida, ele formata esses dados e os envia de volta ao LLM.
  4. Segunda ação e geração de resposta: agora com os dados do relatório, o LLM chama a ferramenta email_sender, fornecendo o endereço de e-mail do gerente e o conteúdo do relatório. Depois que o e-mail é enviado, o servidor MCP confirma que a ação foi concluída.
  5. Confirmação final: o LLM fornece uma resposta final: "Encontrei o relatório de vendas mais recente e enviei por e-mail para seu gerente."

MCP x RAG

O Protocolo de contexto de modelo (MCP) e a geração aumentada por recuperação (RAG) melhoram os LLMs com informações externas, mas fazem isso de maneiras diferentes e servem a propósitos distintos. O RAG encontra e usa informações para criar texto, enquanto o MCP é um sistema mais amplo para interação e ação.

Recurso

Protocolo de Contexto de Modelo (MCP)

Geração aumentada de recuperação (RAG)

Meta principal

Padronizar a comunicação bidirecional para que os LLMs acessem e interajam com ferramentas, fontes de dados e serviços externos para realizar ações junto com a recuperação de informações.

Melhorar as respostas do LLM recuperando informações relevantes de uma base de conhecimento confiável antes de gerar uma resposta.

Mecanismo

Define um protocolo padronizado para que aplicativos de LLM invoquem funções externas ou solicitem dados estruturados de servidores especializados, permitindo ações e integração dinâmica de contexto.

Incorpora um componente de recuperação de informações que usa a consulta de um usuário para extrair informações de uma base de conhecimento ou fonte de dados. Essas informações recuperadas aumentam o comando do LLM.

Tipo de saída

Permite que os LLMs gerem chamadas estruturadas para ferramentas, recebam resultados e gerem texto legível por humanos com base nesses resultados e ações. Também pode envolver dados e funções em tempo real.

Os LLMs geram respostas com base nos dados de treinamento aumentados por textos relevantes para a consulta de documentos externos. Geralmente se concentra na acurácia factual.

Interação

Projetado para interação ativa e execução de tarefas em sistemas externos, fornecendo uma "gramática" para LLMs "usarem" recursos externos.

Principalmente para recuperação passiva de informações para embasar a geração de texto, e não para executar ações em sistemas externos.

Padronização

Um padrão aberto para a forma como os aplicativos de IA fornecem contexto para LLMs, padronizando a integração e reduzindo a necessidade de APIs personalizadas.

Uma técnica ou estrutura para melhorar os LLMs, mas não um protocolo universal para interação de ferramentas entre diferentes fornecedores ou sistemas.

Casos de uso

Agentes de IA realizando tarefas (por exemplo, reserva de voos, atualização de CRM, execução de código), busca de dados em tempo real, integrações avançadas.

Sistemas de resposta a perguntas, chatbots que fornecem informações factuais atualizadas, resumo de documentos, redução de alucinações na geração de textos.

Recurso

Protocolo de Contexto de Modelo (MCP)

Geração aumentada de recuperação (RAG)

Meta principal

Padronizar a comunicação bidirecional para que os LLMs acessem e interajam com ferramentas, fontes de dados e serviços externos para realizar ações junto com a recuperação de informações.

Melhorar as respostas do LLM recuperando informações relevantes de uma base de conhecimento confiável antes de gerar uma resposta.

Mecanismo

Define um protocolo padronizado para que aplicativos de LLM invoquem funções externas ou solicitem dados estruturados de servidores especializados, permitindo ações e integração dinâmica de contexto.

Incorpora um componente de recuperação de informações que usa a consulta de um usuário para extrair informações de uma base de conhecimento ou fonte de dados. Essas informações recuperadas aumentam o comando do LLM.

Tipo de saída

Permite que os LLMs gerem chamadas estruturadas para ferramentas, recebam resultados e gerem texto legível por humanos com base nesses resultados e ações. Também pode envolver dados e funções em tempo real.

Os LLMs geram respostas com base nos dados de treinamento aumentados por textos relevantes para a consulta de documentos externos. Geralmente se concentra na acurácia factual.

Interação

Projetado para interação ativa e execução de tarefas em sistemas externos, fornecendo uma "gramática" para LLMs "usarem" recursos externos.

Principalmente para recuperação passiva de informações para embasar a geração de texto, e não para executar ações em sistemas externos.

Padronização

Um padrão aberto para a forma como os aplicativos de IA fornecem contexto para LLMs, padronizando a integração e reduzindo a necessidade de APIs personalizadas.

Uma técnica ou estrutura para melhorar os LLMs, mas não um protocolo universal para interação de ferramentas entre diferentes fornecedores ou sistemas.

Casos de uso

Agentes de IA realizando tarefas (por exemplo, reserva de voos, atualização de CRM, execução de código), busca de dados em tempo real, integrações avançadas.

Sistemas de resposta a perguntas, chatbots que fornecem informações factuais atualizadas, resumo de documentos, redução de alucinações na geração de textos.

Benefícios de usar o MCP

O protocolo de contexto do modelo oferece várias vantagens em potencial para o desenvolvimento e a implantação de aplicativos com tecnologia de IA, tornando os LLMs mais versáteis, confiáveis e capazes.

Redução de alucinações artificiais

Os LLMs, por natureza, às vezes podem inventar fatos ou produzir informações plausíveis, mas incorretas (o que chamamos de alucinações), porque eles preveem respostas com base em dados de treinamento, não em informações em tempo real. O MCP ajuda a reduzir isso ao fornecer uma maneira clara para os LLMs acessarem fontes de dados externas e confiáveis, tornando as respostas mais confiáveis.

Aumento da utilidade e da automação da IA

Esse protocolo ajuda a IA a fazer muito mais e trabalhar por conta própria. Em geral, os LLMs só sabem o que aprendem no treinamento, e essas informações podem ficar desatualizadas rapidamente. No entanto, com o MCP, os LLMs podem se conectar a muitas ferramentas e integrações prontas, como software empresarial, repositórios de conteúdo e ambientes de desenvolvimento. Isso significa que a IA pode lidar com tarefas mais complicadas que envolvem interagir com o mundo real, como atualizar informações de clientes em um sistema de CRM, pesquisar eventos atuais on-line ou executar cálculos especiais. Ao se conectar diretamente a essas ferramentas externas, os LLMs deixam de ser apenas programas de chat e se tornam agentes inteligentes que agem de forma independente, possibilitando a expansão da automatização.

Conexões mais fáceis para a IA

Antes do MCP, conectar LLMs a diferentes fontes de dados e ferramentas externas era mais difícil, geralmente exigindo conexões especiais ou usando métodos específicos para cada fornecedor. Isso resultou em um sistema complicado e confuso, muitas vezes chamado de problema "N x M", porque o número de conexões personalizadas necessárias crescia muito rapidamente a cada novo modelo ou ferramenta. O MCP oferece um padrão comum e aberto que facilita essas conexões, assim como uma porta USB-C simplifica a conexão de dispositivos. Esse método mais simples pode reduzir os custos de desenvolvimento, acelerar a criação de aplicativos de IA e criar um ambiente de IA mais conectado. Os desenvolvedores também podem alternar entre provedores de LLM e adicionar novas ferramentas com mais facilidade, sem grandes mudanças.

MCP e segurança

Embora o protocolo de contexto do modelo melhore os recursos de LLM ao conectá-los a sistemas externos, ele também pode abrir considerações importantes de segurança. Como o MCP pode acessar qualquer dado e executar códigos por meio de ferramentas conectadas, é essencial ter uma segurança forte.

Os princípios de segurança mais importantes para o MCP incluem:

  • Consentimento e controle do usuário: os usuários precisam entender com clareza e concordar com todas as ações e acesso a dados que o LLM realiza por meio do MCP. Eles precisam controlar quais dados são compartilhados e quais ações são realizadas, de preferência utilizando telas de autorização fáceis de usar.
  • Privacidade de dados: antes de expor os dados do usuário aos servidores do MCP, os hosts precisam receber permissão clara dos usuários. Os dados sensíveis devem ser protegidos com controles de acesso adequados para evitar vazamentos ou compartilhamentos acidentais, principalmente porque os LLMs lidam com grandes volumes de dados. É essencial usar criptografia e regras de controle de acesso fortes.
  • Segurança da ferramenta: as ferramentas vinculadas pelo MCP podem ser usadas para executar código. Os desenvolvedores não devem confiar nas descrições de ferramentas, a menos que elas venham de um servidor confiável. Os usuários precisam conceder permissão antes de qualquer ferramenta ser usada e entender o que ela faz antes de permitir que seja executada.
  • Tratamento seguro da saída: as saídas do LLM das interações do MCP precisam ser tratadas com cuidado para evitar problemas de segurança, como scripting em vários sites (XSS) ou outros ataques a aplicativos da Web, caso a saída seja mostrada aos usuários. É importante limpar adequadamente a entrada e filtrar a saída, além de evitar a inclusão de dados sensíveis nos comandos.
  • Segurança da cadeia de suprimentos: a confiabilidade dos servidores do MCP e das ferramentas externas a que eles se conectam é muito importante. As organizações precisam garantir que todas as partes da cadeia de suprimentos do LLM sejam seguras para evitar resultados tendenciosos, violações de segurança ou falhas.
  • Monitoramento e auditoria: verificar regularmente a atividade do LLM e como ele interage com os servidores do MCP ajuda a encontrar comportamentos incomuns ou possíveis usos indevidos. A configuração de sistemas de auditoria e registro detalhado permite o rastreamento da movimentação de dados e do uso de ferramentas, ajudando na resposta a incidentes de segurança.

Ao seguir esses princípios, os desenvolvedores podem aproveitar todos os benefícios do MCP e se proteger contra possíveis riscos.

Como criar e implantar um aplicativo com tecnologia MCP

A implementação do protocolo de contexto do modelo exige uma infraestrutura robusta para hospedar o LLM, os servidores MCP e as fontes de dados subjacentes. Uma plataforma de nuvem fornece os componentes escalonáveis e seguros necessários para criar uma solução completa. Veja como fazer isso:

Hospedagem e escalonamento dos servidores MCP

Os servidores do MCP são a ponte para suas ferramentas externas. Dependendo das suas necessidades, você pode escolher:

  • Ambientes sem servidor (como o Cloud Run): ideais para ferramentas simples e sem estado. Uma plataforma sem servidor escalona automaticamente seus servidores com base na demanda, até mesmo para zero, para que você pague apenas pelo que usa. Isso é perfeito para implantar ferramentas individuais com eficiência.
  • Orquestração de contêineres (como o Google Kubernetes Engine (GKE)): para aplicativos complexos e com estado que exigem controle detalhado sobre redes e recursos, um ambiente gerenciado do Kubernetes oferece a potência e a flexibilidade necessárias para executar uma infraestrutura de MCP sofisticada em escala empresarial.

Como conectar o MCP aos seus dados e ferramentas

Grande parte do valor do MCP vem das ferramentas que ele pode acessar. Você pode conectar seu LLM a:

  • Bancos de dados gerenciados (como o Cloud SQL ou o Spanner): permitem que sua IA consulte com segurança bancos de dados relacionais para informações de clientes, inventário ou dados operacionais
  • Data warehouses (como o BigQuery): para tarefas analíticas, um LLM pode usar um data warehouse para analisar conjuntos de dados enormes e gerar insights contextuais e detalhados em resposta a uma consulta do usuário.

Orquestração do fluxo de trabalho de IA completo com a Vertex AI

Uma plataforma de IA unificada é essencial para integrar tudo. A Vertex AI ajuda você a gerenciar todo o ciclo de vida do seu aplicativo com tecnologia MCP:

  • Hospedagem de LLM: implante e gerencie modelos de fundação avançados como o Gemini, que servem como o "cérebro" do seu aplicativo.
  • Agentes e frameworks de orquestração: a criação de um agente de IA envolve fluxos de trabalho complexos. A Vertex AI oferece ferramentas para simplificar o fluxo de informações entre o LLM e o contexto fornecido pelos seus servidores MCP, facilitando o desenvolvimento de agentes sofisticados capazes de raciocinar e agir.

Vá além

Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.

Google Cloud