Modelos de linguagem grandes (LLMs) são poderosos, mas têm duas grandes limitações: o conhecimento deles é fixo no momento do treinamento e eles não podem interagir com o mundo externo. Isso significa que eles não podem acessar dados em tempo real ou realizar ações como agendar uma reunião ou atualizar um registro de cliente.
O Protocolo de Contexto de Modelo (MCP) é um padrão aberto criado para resolver esse problema. Introduzido pela Anthropic em novembro de 2024, o MCP fornece uma "linguagem" segura e padronizada para que LLMs se comuniquem com dados, aplicativos e serviços externos. Ele atua como uma ponte, permitindo que a IA vá além do conhecimento estático e se torne um agente dinâmico que pode recuperar informações atuais e agir, tornando-a mais precisa, útil e automatizada.
O MCP cria uma conexão bidirecional padronizada para aplicativos de IA, permitindo que LLMs se conectem facilmente a várias fontes de dados e ferramentas. O MCP se baseia em conceitos já existentes, como o uso de ferramentas e a chamada de função, mas os padroniza. Isso reduz a necessidade de conexões personalizadas para cada novo modelo de IA e sistema externo. Elas permitem que os LLMs usem dados atuais e do mundo real, realizem ações e acessem recursos especializados que não foram incluídos no treinamento original.
O protocolo de contexto de modelo tem uma estrutura clara com componentes que trabalham juntos para ajudar os LLMs e sistemas externos a interagir com facilidade.
O LLM está contido no host do MCP, um aplicativo ou ambiente de IA, como um IDE com tecnologia de IA ou IA de conversação. Esse é o ponto de interação do usuário, em que o host do MCP usa o LLM para processar solicitações que podem exigir dados ou ferramentas externas.
O cliente MCP, localizado no host MCP, ajuda o LLM e o servidor MCP a se comunicarem entre si. Ele traduz as solicitações do LLM para o MCP e converte as respostas do MCP para o LLM. Ele também encontra e usa servidores MCP disponíveis.
O servidor MCP é o serviço externo que fornece contexto, dados ou recursos ao LLM. Ele ajuda os LLMs ao se conectar a sistemas externos, como bancos de dados e serviços da Web, traduzindo as respostas em um formato que o LLM possa entender, o que ajuda os desenvolvedores a fornecer diversas funcionalidades.
A camada de transporte usa mensagens JSON-RPC 2.0 para se comunicar entre o cliente e o servidor, principalmente por meio de dois métodos de transporte:
Basicamente, o protocolo de contexto do modelo permite que um LLM peça ajuda a ferramentas externas para responder a uma consulta ou concluir uma tarefa. Imagine que você pede a um assistente de IA: "Encontre o relatório de vendas mais recente no nosso banco de dados e envie por e-mail para meu gerente."
Confira uma visão simplificada de como o MCP lida com isso:
O Protocolo de contexto de modelo (MCP) e a geração aumentada por recuperação (RAG) melhoram os LLMs com informações externas, mas fazem isso de maneiras diferentes e servem a propósitos distintos. O RAG encontra e usa informações para criar texto, enquanto o MCP é um sistema mais amplo para interação e ação.
Recurso | Protocolo de Contexto de Modelo (MCP) | Geração aumentada de recuperação (RAG) |
Meta principal | Padronizar a comunicação bidirecional para que os LLMs acessem e interajam com ferramentas, fontes de dados e serviços externos para realizar ações junto com a recuperação de informações. | Melhorar as respostas do LLM recuperando informações relevantes de uma base de conhecimento confiável antes de gerar uma resposta. |
Mecanismo | Define um protocolo padronizado para que aplicativos de LLM invoquem funções externas ou solicitem dados estruturados de servidores especializados, permitindo ações e integração dinâmica de contexto. | Incorpora um componente de recuperação de informações que usa a consulta de um usuário para extrair informações de uma base de conhecimento ou fonte de dados. Essas informações recuperadas aumentam o comando do LLM. |
Tipo de saída | Permite que os LLMs gerem chamadas estruturadas para ferramentas, recebam resultados e gerem texto legível por humanos com base nesses resultados e ações. Também pode envolver dados e funções em tempo real. | Os LLMs geram respostas com base nos dados de treinamento aumentados por textos relevantes para a consulta de documentos externos. Geralmente se concentra na acurácia factual. |
Interação | Projetado para interação ativa e execução de tarefas em sistemas externos, fornecendo uma "gramática" para LLMs "usarem" recursos externos. | Principalmente para recuperação passiva de informações para embasar a geração de texto, e não para executar ações em sistemas externos. |
Padronização | Um padrão aberto para a forma como os aplicativos de IA fornecem contexto para LLMs, padronizando a integração e reduzindo a necessidade de APIs personalizadas. | Uma técnica ou estrutura para melhorar os LLMs, mas não um protocolo universal para interação de ferramentas entre diferentes fornecedores ou sistemas. |
Casos de uso | Agentes de IA realizando tarefas (por exemplo, reserva de voos, atualização de CRM, execução de código), busca de dados em tempo real, integrações avançadas. | Sistemas de resposta a perguntas, chatbots que fornecem informações factuais atualizadas, resumo de documentos, redução de alucinações na geração de textos. |
Recurso
Protocolo de Contexto de Modelo (MCP)
Geração aumentada de recuperação (RAG)
Meta principal
Padronizar a comunicação bidirecional para que os LLMs acessem e interajam com ferramentas, fontes de dados e serviços externos para realizar ações junto com a recuperação de informações.
Melhorar as respostas do LLM recuperando informações relevantes de uma base de conhecimento confiável antes de gerar uma resposta.
Mecanismo
Define um protocolo padronizado para que aplicativos de LLM invoquem funções externas ou solicitem dados estruturados de servidores especializados, permitindo ações e integração dinâmica de contexto.
Incorpora um componente de recuperação de informações que usa a consulta de um usuário para extrair informações de uma base de conhecimento ou fonte de dados. Essas informações recuperadas aumentam o comando do LLM.
Tipo de saída
Permite que os LLMs gerem chamadas estruturadas para ferramentas, recebam resultados e gerem texto legível por humanos com base nesses resultados e ações. Também pode envolver dados e funções em tempo real.
Os LLMs geram respostas com base nos dados de treinamento aumentados por textos relevantes para a consulta de documentos externos. Geralmente se concentra na acurácia factual.
Interação
Projetado para interação ativa e execução de tarefas em sistemas externos, fornecendo uma "gramática" para LLMs "usarem" recursos externos.
Principalmente para recuperação passiva de informações para embasar a geração de texto, e não para executar ações em sistemas externos.
Padronização
Um padrão aberto para a forma como os aplicativos de IA fornecem contexto para LLMs, padronizando a integração e reduzindo a necessidade de APIs personalizadas.
Uma técnica ou estrutura para melhorar os LLMs, mas não um protocolo universal para interação de ferramentas entre diferentes fornecedores ou sistemas.
Casos de uso
Agentes de IA realizando tarefas (por exemplo, reserva de voos, atualização de CRM, execução de código), busca de dados em tempo real, integrações avançadas.
Sistemas de resposta a perguntas, chatbots que fornecem informações factuais atualizadas, resumo de documentos, redução de alucinações na geração de textos.
O protocolo de contexto do modelo oferece várias vantagens em potencial para o desenvolvimento e a implantação de aplicativos com tecnologia de IA, tornando os LLMs mais versáteis, confiáveis e capazes.
Os LLMs, por natureza, às vezes podem inventar fatos ou produzir informações plausíveis, mas incorretas (o que chamamos de alucinações), porque eles preveem respostas com base em dados de treinamento, não em informações em tempo real. O MCP ajuda a reduzir isso ao fornecer uma maneira clara para os LLMs acessarem fontes de dados externas e confiáveis, tornando as respostas mais confiáveis.
Esse protocolo ajuda a IA a fazer muito mais e trabalhar por conta própria. Em geral, os LLMs só sabem o que aprendem no treinamento, e essas informações podem ficar desatualizadas rapidamente. No entanto, com o MCP, os LLMs podem se conectar a muitas ferramentas e integrações prontas, como software empresarial, repositórios de conteúdo e ambientes de desenvolvimento. Isso significa que a IA pode lidar com tarefas mais complicadas que envolvem interagir com o mundo real, como atualizar informações de clientes em um sistema de CRM, pesquisar eventos atuais on-line ou executar cálculos especiais. Ao se conectar diretamente a essas ferramentas externas, os LLMs deixam de ser apenas programas de chat e se tornam agentes inteligentes que agem de forma independente, possibilitando a expansão da automatização.
Antes do MCP, conectar LLMs a diferentes fontes de dados e ferramentas externas era mais difícil, geralmente exigindo conexões especiais ou usando métodos específicos para cada fornecedor. Isso resultou em um sistema complicado e confuso, muitas vezes chamado de problema "N x M", porque o número de conexões personalizadas necessárias crescia muito rapidamente a cada novo modelo ou ferramenta. O MCP oferece um padrão comum e aberto que facilita essas conexões, assim como uma porta USB-C simplifica a conexão de dispositivos. Esse método mais simples pode reduzir os custos de desenvolvimento, acelerar a criação de aplicativos de IA e criar um ambiente de IA mais conectado. Os desenvolvedores também podem alternar entre provedores de LLM e adicionar novas ferramentas com mais facilidade, sem grandes mudanças.
Embora o protocolo de contexto do modelo melhore os recursos de LLM ao conectá-los a sistemas externos, ele também pode abrir considerações importantes de segurança. Como o MCP pode acessar qualquer dado e executar códigos por meio de ferramentas conectadas, é essencial ter uma segurança forte.
Os princípios de segurança mais importantes para o MCP incluem:
Ao seguir esses princípios, os desenvolvedores podem aproveitar todos os benefícios do MCP e se proteger contra possíveis riscos.
A implementação do protocolo de contexto do modelo exige uma infraestrutura robusta para hospedar o LLM, os servidores MCP e as fontes de dados subjacentes. Uma plataforma de nuvem fornece os componentes escalonáveis e seguros necessários para criar uma solução completa. Veja como fazer isso:
Os servidores do MCP são a ponte para suas ferramentas externas. Dependendo das suas necessidades, você pode escolher:
Grande parte do valor do MCP vem das ferramentas que ele pode acessar. Você pode conectar seu LLM a:
Uma plataforma de IA unificada é essencial para integrar tudo. A Vertex AI ajuda você a gerenciar todo o ciclo de vida do seu aplicativo com tecnologia MCP:
Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.