Apa itu MCP dan bagaimana cara kerjanya?

Model bahasa besar (LLM) sangat canggih, tetapi memiliki dua keterbatasan utama: pengetahuan mereka terbatas pada saat pelatihan, dan mereka tidak dapat berinteraksi dengan dunia luar. Artinya, mereka tidak dapat mengakses data real-time atau melakukan tindakan seperti menjadwalkan rapat atau memperbarui data pelanggan. 

Model Context Protocol (MCP) adalah standar terbuka yang dirancang untuk mengatasi masalah ini. Diperkenalkan oleh Anthropic pada November 2024, MCP menyediakan "bahasa" yang aman dan terstandardisasi bagi LLM untuk berkomunikasi dengan data, aplikasi, dan layanan eksternal. LLM berfungsi sebagai jembatan, yang memungkinkan AI melampaui pengetahuan statis dan menjadi agen dinamis yang dapat mengambil informasi terkini dan mengambil tindakan, sehingga menjadikannya lebih akurat, berguna, dan otomatis.

Memahami Model Context Protocol

MCP membuat koneksi dua arah yang terstandardisasi untuk aplikasi AI, sehingga LLM dapat dengan mudah terhubung ke berbagai sumber data dan alat. MCP dibangun berdasarkan konsep yang ada seperti penggunaan alat dan panggilan fungsi, tetapi menstandarkannya. Hal ini mengurangi kebutuhan akan koneksi kustom untuk setiap model AI baru dan sistem eksternal. Hal ini memungkinkan LLM menggunakan data dunia nyata terkini, melakukan tindakan, dan mengakses fitur khusus yang tidak disertakan dalam pelatihan aslinya.

Arsitektur dan komponen MCP

Model Context Protocol memiliki struktur yang jelas dengan komponen yang bekerja sama untuk membantu LLM dan sistem luar berinteraksi dengan mudah.

Host MCP

LLM terdapat dalam host MCP, yaitu aplikasi atau lingkungan AI seperti IDE yang didukung AI atau AI percakapan. Ini biasanya merupakan titik interaksi pengguna, tempat host MCP menggunakan LLM untuk memproses permintaan yang mungkin memerlukan data atau alat eksternal.

Klien MCP

Klien MCP, yang berada di dalam host MCP, membantu LLM dan server MCP berkomunikasi satu sama lain. Klien ini menerjemahkan permintaan LLM untuk MCP dan mengonversi balasan MCP untuk LLM. Klien ini juga menemukan dan menggunakan server MCP yang tersedia.

Server MCP

Server MCP adalah layanan eksternal yang menyediakan konteks, data, atau kemampuan ke LLM. Layanan ini membantu LLM dengan menghubungkannya ke sistem eksternal seperti database dan layanan web, menerjemahkan responsnya ke dalam format yang dapat dipahami LLM, sehingga membantu developer menyediakan beragam fungsi.

Lapisan transpor

Lapisan transpor menggunakan pesan JSON-RPC 2.0 untuk berkomunikasi antara klien dan server, terutama melalui dua metode transpor:

  • Input/output standar (stdio): Berfungsi dengan baik untuk resource lokal, menawarkan transmisi pesan sinkron yang cepat
  • Peristiwa yang dikirim server (SSE): Lebih disarankan untuk resource jarak jauh, sehingga memungkinkan streaming data real-time yang efisien

Bagaimana cara kerja MCP?

Intinya, Model Context Protocol memungkinkan LLM meminta bantuan dari alat eksternal untuk menjawab kueri atau menyelesaikan tugas. Bayangkan Anda meminta asisten AI: "Temukan laporan penjualan terbaru di database kita dan kirimkan melalui email ke manajer saya."

Berikut adalah tampilan sederhana tentang cara MCP menangani hal tersebut:

  1. Permintaan dan penemuan alat: LLM memahami bahwa ia tidak dapat mengakses database atau mengirim email sendiri. Model ini menggunakan klien MCP untuk mencari alat yang tersedia, dan menemukan dua alat relevan yang terdaftar di server MCP: alat database_query dan alat email_sender.
  2. Pemanggilan alat: LLM membuat permintaan terstruktur untuk menggunakan alat ini. Pertama, ia memanggil alat database_query, dengan menentukan nama laporan. Klien MCP kemudian mengirimkan permintaan ini ke server MCP yang sesuai.
  3. Tindakan eksternal dan pengembalian data: Server MCP menerima permintaan, menerjemahkannya menjadi kueri SQL yang aman untuk database perusahaan, dan mengambil informasi laporan penjualan. Kemudian, alat ini memformat data tersebut dan mengirimkannya kembali ke LLM.
  4. Pembuatan respons dan tindakan kedua: Setelah memiliki data laporan, LLM memanggil alat email_sender, yang menyediakan alamat email manajer dan konten laporan. Setelah email dikirim, server MCP mengonfirmasi bahwa tindakan telah selesai.
  5. Konfirmasi akhir: LLM memberikan respons akhir kepada Anda: "Saya telah menemukan laporan penjualan terbaru dan mengirimkannya melalui email kepada manajer Anda."

MCP versus RAG

Model Context Protocol (MCP) dan Retrieval-Augmented Generation (RAG) mampu meningkatkan kualitas LLM dengan informasi eksternal, tetapi keduanya melakukannya dengan cara yang berbeda dan untuk tujuan yang berbeda pula. RAG menemukan dan menggunakan informasi untuk membuat teks, sedangkan MCP adalah sistem yang lebih luas untuk interaksi dan tindakan.

Fitur

Model Context Protocol (MCP)

Retrieval-Augmented Generation (RAG)

Sasaran utama

Menstandardisasi komunikasi dua arah untuk LLM agar dapat mengakses dan berinteraksi dengan alat, sumber data, dan layanan eksternal untuk melakukan tindakan bersamaan dengan pengambilan informasi.

Meningkatkan respons LLM dengan mengambil informasi yang relevan dari pusat informasi yang kredibel sebelum menghasilkan respons.

Mekanisme

Menentukan protokol standar untuk aplikasi LLM guna memanggil fungsi eksternal atau meminta data terstruktur dari server khusus, sehingga memungkinkan tindakan dan integrasi konteks dinamis.

Menggabungkan komponen pengambilan informasi yang menggunakan kueri pengguna untuk menarik informasi dari pusat informasi atau sumber data. Informasi yang diambil ini kemudian memperkaya perintah LLM.

Jenis output

Memungkinkan LLM membuat panggilan terstruktur untuk alat, menerima hasil, lalu membuat teks yang dapat dibaca manusia berdasarkan hasil dan tindakan tersebut. Juga dapat melibatkan data dan fungsi real-time.

LLM menghasilkan respons berdasarkan data pelatihan yang dilengkapi dengan teks yang relevan dengan kueri dari dokumen eksternal. Sering kali berfokus pada akurasi faktual.

Interaksi

Dirancang untuk interaksi aktif dan eksekusi tugas dalam sistem eksternal, yang menyediakan "tata bahasa" bagi LLM untuk "menggunakan" kemampuan eksternal.

Terutama untuk pengambilan informasi pasif guna menginformasikan pembuatan teks; biasanya tidak digunakan untuk menjalankan tindakan dalam sistem eksternal.

Standardisasi

Standar terbuka untuk cara aplikasi AI memberikan konteks ke LLM, menstandarkan integrasi, dan mengurangi kebutuhan akan API kustom.

Teknik atau framework untuk meningkatkan LLM, tetapi bukan protokol universal untuk interaksi alat di berbagai vendor atau sistem.

Kasus penggunaan

Agen AI yang menjalankan tugas (misalnya, memesan tiket pesawat, mengupdate CRM, menjalankan kode), mengambil data real-time, integrasi lanjutan.

Sistem penjawab pertanyaan, chatbot yang memberikan informasi faktual terkini, meringkas dokumen, mengurangi halusinasi dalam pembuatan teks.

Fitur

Model Context Protocol (MCP)

Retrieval-Augmented Generation (RAG)

Sasaran utama

Menstandardisasi komunikasi dua arah untuk LLM agar dapat mengakses dan berinteraksi dengan alat, sumber data, dan layanan eksternal untuk melakukan tindakan bersamaan dengan pengambilan informasi.

Meningkatkan respons LLM dengan mengambil informasi yang relevan dari pusat informasi yang kredibel sebelum menghasilkan respons.

Mekanisme

Menentukan protokol standar untuk aplikasi LLM guna memanggil fungsi eksternal atau meminta data terstruktur dari server khusus, sehingga memungkinkan tindakan dan integrasi konteks dinamis.

Menggabungkan komponen pengambilan informasi yang menggunakan kueri pengguna untuk menarik informasi dari pusat informasi atau sumber data. Informasi yang diambil ini kemudian memperkaya perintah LLM.

Jenis output

Memungkinkan LLM membuat panggilan terstruktur untuk alat, menerima hasil, lalu membuat teks yang dapat dibaca manusia berdasarkan hasil dan tindakan tersebut. Juga dapat melibatkan data dan fungsi real-time.

LLM menghasilkan respons berdasarkan data pelatihan yang dilengkapi dengan teks yang relevan dengan kueri dari dokumen eksternal. Sering kali berfokus pada akurasi faktual.

Interaksi

Dirancang untuk interaksi aktif dan eksekusi tugas dalam sistem eksternal, yang menyediakan "tata bahasa" bagi LLM untuk "menggunakan" kemampuan eksternal.

Terutama untuk pengambilan informasi pasif guna menginformasikan pembuatan teks; biasanya tidak digunakan untuk menjalankan tindakan dalam sistem eksternal.

Standardisasi

Standar terbuka untuk cara aplikasi AI memberikan konteks ke LLM, menstandarkan integrasi, dan mengurangi kebutuhan akan API kustom.

Teknik atau framework untuk meningkatkan LLM, tetapi bukan protokol universal untuk interaksi alat di berbagai vendor atau sistem.

Kasus penggunaan

Agen AI yang menjalankan tugas (misalnya, memesan tiket pesawat, mengupdate CRM, menjalankan kode), mengambil data real-time, integrasi lanjutan.

Sistem penjawab pertanyaan, chatbot yang memberikan informasi faktual terkini, meringkas dokumen, mengurangi halusinasi dalam pembuatan teks.

Manfaat menggunakan MCP

Protokol Konteks Model menawarkan beberapa potensi keuntungan untuk mengembangkan dan men-deploy aplikasi yang didukung AI, sehingga membuat LLM lebih serbaguna, andal, dan mumpuni.

Halusinasi berkurang

LLM secara alami terkadang dapat mengarang fakta atau menghasilkan informasi yang terdengar masuk akal tetapi sebenarnya salah (berhalusinasi) karena LLM memprediksi jawaban berdasarkan data pelatihan, bukan informasi real-time. MCP membantu mengurangi hal ini dengan menyediakan cara yang jelas bagi LLM untuk mengakses sumber data eksternal yang andal, sehingga responsnya lebih akurat.

Peningkatan utilitas dan otomatisasi AI

Protokol ini membantu AI melakukan lebih banyak hal dan bekerja sendiri. Biasanya, LLM hanya mengetahui hal-hal yang digunakan untuk melatihnya, yang dapat dengan cepat menjadi usang. Namun, dengan MCP, LLM dapat terhubung dengan banyak alat dan integrasi siap pakai seperti software bisnis, repositori konten, dan lingkungan pengembangan. Artinya, AI dapat menangani pekerjaan yang lebih rumit yang melibatkan interaksi dengan dunia nyata, seperti memperbarui informasi pelanggan dalam sistem CRM, mencari peristiwa terkini secara online, atau menjalankan perhitungan khusus. Dengan terhubung langsung ke alat eksternal ini, LLM tidak lagi sekadar program chat; LLM menjadi agen cerdas yang dapat bertindak secara mandiri, yang berarti banyak hal dapat diotomatiskan.

Koneksi yang lebih mudah untuk AI

Sebelum MCP, menghubungkan LLM ke berbagai sumber data dan alat eksternal lebih sulit, biasanya memerlukan koneksi khusus atau menggunakan metode khusus untuk setiap vendor. Hal ini mengakibatkan sistem yang rumit dan berantakan, yang sering disebut masalah "N x M", karena jumlah koneksi kustom yang diperlukan bertambah sangat cepat dengan setiap model atau alat baru. MCP menawarkan standar terbuka yang umum yang memudahkan koneksi ini, seperti halnya port USB-C yang memudahkan koneksi perangkat. Metode yang lebih sederhana ini dapat menurunkan biaya pengembangan, mempercepat pembuatan aplikasi AI, dan menciptakan lingkungan AI yang lebih terhubung. Developer juga dapat lebih mudah beralih di antara penyedia LLM dan menambahkan alat baru tanpa perubahan besar.

MCP dan keamanan

Meskipun Protokol Konteks Model meningkatkan kemampuan LLM dengan menghubungkannya ke sistem luar, protokol ini juga dapat membuka pertimbangan keamanan yang penting. Karena MCP dapat mengakses data apa pun dan berpotensi menjalankan kode melalui alat yang terhubung, keamanan yang kuat sangat penting.

Prinsip keamanan utama untuk MCP meliputi:

  • Izin dan kontrol pengguna: Pengguna harus memahami dan menyetujui semua tindakan dan akses data yang dilakukan LLM melalui MCP. Pengguna harus dapat mengontrol data apa yang dibagikan dan tindakan apa yang diambil, idealnya melalui layar otorisasi yang mudah digunakan.
  • Privasi data: Sebelum mengekspos data pengguna ke server MCP, host harus mendapatkan izin yang jelas dari pengguna. Data sensitif harus dilindungi dengan kontrol akses yang tepat untuk mencegah kebocoran atau pembagian yang tidak disengaja, terutama karena LLM menangani data dalam jumlah besar. Menggunakan enkripsi dan aturan kontrol akses yang kuat sangatlah penting.
  • Keamanan alat: Alat yang ditautkan melalui MCP dapat digunakan untuk menjalankan kode. Developer tidak boleh mempercayai deskripsi alat kecuali jika berasal dari server yang tepercaya. Pengguna harus memberikan izin sebelum alat apa pun digunakan dan memahami fungsi alat tersebut sebelum mengizinkannya berjalan.
  • Penanganan output yang aman: Output LLM dari interaksi MCP harus ditangani dengan hati-hati untuk mencegah masalah keamanan seperti pembuatan skrip lintas situs (XSS) atau serangan aplikasi web lainnya jika output ditampilkan kepada pengguna. Penting untuk membersihkan input dan memfilter output dengan benar, serta menghindari penyertaan data sensitif dalam perintah.
  • Keamanan supply chain: Keandalan server MCP dan alat eksternal yang terhubung dengannya sangat penting. Organisasi harus memastikan semua bagian supply chain LLM mereka aman untuk mencegah hasil yang bias, pelanggaran keamanan, atau kegagalan.
  • Pemantauan dan pengauditan: Memeriksa aktivitas LLM secara berkala dan cara LLM berinteraksi dengan server MCP dapat membantu menemukan perilaku yang tidak biasa atau potensi penyalahgunaan. Menyiapkan sistem logging dan audit yang kuat memungkinkan pelacakan pergerakan data dan penggunaan alat, yang membantu saat merespons insiden keamanan.

Dengan mematuhi prinsip-prinsip ini, developer dapat menggunakan kekuatan MCP sekaligus melindungi diri dari potensi risiko.

Membangun dan men-deploy aplikasi yang didukung MCP

Mengimplementasikan Protokol Konteks Model memerlukan infrastruktur yang tangguh untuk menghosting LLM, server MCP, dan sumber data yang mendasarinya. Platform cloud menyediakan komponen yang skalabel dan aman yang diperlukan untuk membangun solusi lengkap. Berikut cara melakukannya:

Menghosting dan menskalakan server MCP Anda

Server MCP adalah jembatan ke alat eksternal Anda. Bergantung pada kebutuhan Anda, Anda dapat memilih:

  • Lingkungan serverless (seperti Cloud Run): Cocok untuk alat sederhana dan stateless. Platform serverless secara otomatis menskalakan server Anda berdasarkan permintaan—bahkan hingga nol—sehingga Anda hanya membayar sesuai penggunaan. Hal ini sangat cocok untuk men-deploy alat individual secara efisien.
  • Orkestrasi container (seperti Google Kubernetes Engine (GKE)): Untuk aplikasi stateful yang kompleks dan memerlukan kontrol terperinci atas jaringan dan resource, lingkungan Kubernetes terkelola memberikan kemampuan dan fleksibilitas yang diperlukan untuk menjalankan infrastruktur MCP yang canggih dalam skala perusahaan.

Menghubungkan MCP ke data dan alat Anda

Sebagian besar nilai MCP berasal dari alat yang dapat diaksesnya. Anda dapat menghubungkan LLM Anda ke:

  • Database terkelola (seperti Cloud SQL atau Spanner): Memungkinkan AI Anda mengkueri database relasional secara aman untuk hal-hal seperti informasi pelanggan, inventaris, atau data operasional
  • Data warehouse (seperti BigQuery): Untuk tugas analisis, LLM dapat memanfaatkan data warehouse untuk menganalisis set data besar dan mendapatkan insight kontekstual yang mendalam sebagai respons terhadap kueri pengguna

Mengorkestrasi alur kerja AI end-to-end dengan Vertex AI

Platform AI terpadu sangat penting untuk mengintegrasikan semuanya. Vertex AI membantu Anda mengelola seluruh siklus proses aplikasi yang didukung MCP:

  • Hosting LLM: Deploy dan kelola model dasar yang canggih seperti Gemini, yang berfungsi sebagai "otak" aplikasi Anda.
  • Framework agen dan orkestrasi: Membangun agen AI melibatkan alur kerja yang kompleks. Vertex AI menyediakan alat untuk menyederhanakan alur informasi antara LLM dan konteks yang disediakan oleh server MCP Anda, sehingga menyederhanakan pengembangan agen canggih yang dapat bernalar dan bertindak.

Langkah selanjutnya

Mulailah membangun solusi di Google Cloud dengan kredit gratis senilai $300 dan lebih dari 20 produk yang selalu gratis.