Model bahasa besar (LLM) sangat canggih, tetapi memiliki dua keterbatasan utama: pengetahuan mereka terbatas pada saat pelatihan, dan mereka tidak dapat berinteraksi dengan dunia luar. Artinya, mereka tidak dapat mengakses data real-time atau melakukan tindakan seperti menjadwalkan rapat atau memperbarui data pelanggan.
Model Context Protocol (MCP) adalah standar terbuka yang dirancang untuk mengatasi masalah ini. Diperkenalkan oleh Anthropic pada November 2024, MCP menyediakan "bahasa" yang aman dan terstandardisasi bagi LLM untuk berkomunikasi dengan data, aplikasi, dan layanan eksternal. LLM berfungsi sebagai jembatan, yang memungkinkan AI melampaui pengetahuan statis dan menjadi agen dinamis yang dapat mengambil informasi terkini dan mengambil tindakan, sehingga menjadikannya lebih akurat, berguna, dan otomatis.
MCP membuat koneksi dua arah yang terstandardisasi untuk aplikasi AI, sehingga LLM dapat dengan mudah terhubung ke berbagai sumber data dan alat. MCP dibangun berdasarkan konsep yang ada seperti penggunaan alat dan panggilan fungsi, tetapi menstandarkannya. Hal ini mengurangi kebutuhan akan koneksi kustom untuk setiap model AI baru dan sistem eksternal. Hal ini memungkinkan LLM menggunakan data dunia nyata terkini, melakukan tindakan, dan mengakses fitur khusus yang tidak disertakan dalam pelatihan aslinya.
Model Context Protocol memiliki struktur yang jelas dengan komponen yang bekerja sama untuk membantu LLM dan sistem luar berinteraksi dengan mudah.
LLM terdapat dalam host MCP, yaitu aplikasi atau lingkungan AI seperti IDE yang didukung AI atau AI percakapan. Ini biasanya merupakan titik interaksi pengguna, tempat host MCP menggunakan LLM untuk memproses permintaan yang mungkin memerlukan data atau alat eksternal.
Klien MCP, yang berada di dalam host MCP, membantu LLM dan server MCP berkomunikasi satu sama lain. Klien ini menerjemahkan permintaan LLM untuk MCP dan mengonversi balasan MCP untuk LLM. Klien ini juga menemukan dan menggunakan server MCP yang tersedia.
Server MCP adalah layanan eksternal yang menyediakan konteks, data, atau kemampuan ke LLM. Layanan ini membantu LLM dengan menghubungkannya ke sistem eksternal seperti database dan layanan web, menerjemahkan responsnya ke dalam format yang dapat dipahami LLM, sehingga membantu developer menyediakan beragam fungsi.
Lapisan transpor menggunakan pesan JSON-RPC 2.0 untuk berkomunikasi antara klien dan server, terutama melalui dua metode transpor:
Intinya, Model Context Protocol memungkinkan LLM meminta bantuan dari alat eksternal untuk menjawab kueri atau menyelesaikan tugas. Bayangkan Anda meminta asisten AI: "Temukan laporan penjualan terbaru di database kita dan kirimkan melalui email ke manajer saya."
Berikut adalah tampilan sederhana tentang cara MCP menangani hal tersebut:
Model Context Protocol (MCP) dan Retrieval-Augmented Generation (RAG) mampu meningkatkan kualitas LLM dengan informasi eksternal, tetapi keduanya melakukannya dengan cara yang berbeda dan untuk tujuan yang berbeda pula. RAG menemukan dan menggunakan informasi untuk membuat teks, sedangkan MCP adalah sistem yang lebih luas untuk interaksi dan tindakan.
Fitur | Model Context Protocol (MCP) | Retrieval-Augmented Generation (RAG) |
Sasaran utama | Menstandardisasi komunikasi dua arah untuk LLM agar dapat mengakses dan berinteraksi dengan alat, sumber data, dan layanan eksternal untuk melakukan tindakan bersamaan dengan pengambilan informasi. | Meningkatkan respons LLM dengan mengambil informasi yang relevan dari pusat informasi yang kredibel sebelum menghasilkan respons. |
Mekanisme | Menentukan protokol standar untuk aplikasi LLM guna memanggil fungsi eksternal atau meminta data terstruktur dari server khusus, sehingga memungkinkan tindakan dan integrasi konteks dinamis. | Menggabungkan komponen pengambilan informasi yang menggunakan kueri pengguna untuk menarik informasi dari pusat informasi atau sumber data. Informasi yang diambil ini kemudian memperkaya perintah LLM. |
Jenis output | Memungkinkan LLM membuat panggilan terstruktur untuk alat, menerima hasil, lalu membuat teks yang dapat dibaca manusia berdasarkan hasil dan tindakan tersebut. Juga dapat melibatkan data dan fungsi real-time. | LLM menghasilkan respons berdasarkan data pelatihan yang dilengkapi dengan teks yang relevan dengan kueri dari dokumen eksternal. Sering kali berfokus pada akurasi faktual. |
Interaksi | Dirancang untuk interaksi aktif dan eksekusi tugas dalam sistem eksternal, yang menyediakan "tata bahasa" bagi LLM untuk "menggunakan" kemampuan eksternal. | Terutama untuk pengambilan informasi pasif guna menginformasikan pembuatan teks; biasanya tidak digunakan untuk menjalankan tindakan dalam sistem eksternal. |
Standardisasi | Standar terbuka untuk cara aplikasi AI memberikan konteks ke LLM, menstandarkan integrasi, dan mengurangi kebutuhan akan API kustom. | Teknik atau framework untuk meningkatkan LLM, tetapi bukan protokol universal untuk interaksi alat di berbagai vendor atau sistem. |
Kasus penggunaan | Agen AI yang menjalankan tugas (misalnya, memesan tiket pesawat, mengupdate CRM, menjalankan kode), mengambil data real-time, integrasi lanjutan. | Sistem penjawab pertanyaan, chatbot yang memberikan informasi faktual terkini, meringkas dokumen, mengurangi halusinasi dalam pembuatan teks. |
Fitur
Model Context Protocol (MCP)
Retrieval-Augmented Generation (RAG)
Sasaran utama
Menstandardisasi komunikasi dua arah untuk LLM agar dapat mengakses dan berinteraksi dengan alat, sumber data, dan layanan eksternal untuk melakukan tindakan bersamaan dengan pengambilan informasi.
Meningkatkan respons LLM dengan mengambil informasi yang relevan dari pusat informasi yang kredibel sebelum menghasilkan respons.
Mekanisme
Menentukan protokol standar untuk aplikasi LLM guna memanggil fungsi eksternal atau meminta data terstruktur dari server khusus, sehingga memungkinkan tindakan dan integrasi konteks dinamis.
Menggabungkan komponen pengambilan informasi yang menggunakan kueri pengguna untuk menarik informasi dari pusat informasi atau sumber data. Informasi yang diambil ini kemudian memperkaya perintah LLM.
Jenis output
Memungkinkan LLM membuat panggilan terstruktur untuk alat, menerima hasil, lalu membuat teks yang dapat dibaca manusia berdasarkan hasil dan tindakan tersebut. Juga dapat melibatkan data dan fungsi real-time.
LLM menghasilkan respons berdasarkan data pelatihan yang dilengkapi dengan teks yang relevan dengan kueri dari dokumen eksternal. Sering kali berfokus pada akurasi faktual.
Interaksi
Dirancang untuk interaksi aktif dan eksekusi tugas dalam sistem eksternal, yang menyediakan "tata bahasa" bagi LLM untuk "menggunakan" kemampuan eksternal.
Terutama untuk pengambilan informasi pasif guna menginformasikan pembuatan teks; biasanya tidak digunakan untuk menjalankan tindakan dalam sistem eksternal.
Standardisasi
Standar terbuka untuk cara aplikasi AI memberikan konteks ke LLM, menstandarkan integrasi, dan mengurangi kebutuhan akan API kustom.
Teknik atau framework untuk meningkatkan LLM, tetapi bukan protokol universal untuk interaksi alat di berbagai vendor atau sistem.
Kasus penggunaan
Agen AI yang menjalankan tugas (misalnya, memesan tiket pesawat, mengupdate CRM, menjalankan kode), mengambil data real-time, integrasi lanjutan.
Sistem penjawab pertanyaan, chatbot yang memberikan informasi faktual terkini, meringkas dokumen, mengurangi halusinasi dalam pembuatan teks.
Protokol Konteks Model menawarkan beberapa potensi keuntungan untuk mengembangkan dan men-deploy aplikasi yang didukung AI, sehingga membuat LLM lebih serbaguna, andal, dan mumpuni.
LLM secara alami terkadang dapat mengarang fakta atau menghasilkan informasi yang terdengar masuk akal tetapi sebenarnya salah (berhalusinasi) karena LLM memprediksi jawaban berdasarkan data pelatihan, bukan informasi real-time. MCP membantu mengurangi hal ini dengan menyediakan cara yang jelas bagi LLM untuk mengakses sumber data eksternal yang andal, sehingga responsnya lebih akurat.
Protokol ini membantu AI melakukan lebih banyak hal dan bekerja sendiri. Biasanya, LLM hanya mengetahui hal-hal yang digunakan untuk melatihnya, yang dapat dengan cepat menjadi usang. Namun, dengan MCP, LLM dapat terhubung dengan banyak alat dan integrasi siap pakai seperti software bisnis, repositori konten, dan lingkungan pengembangan. Artinya, AI dapat menangani pekerjaan yang lebih rumit yang melibatkan interaksi dengan dunia nyata, seperti memperbarui informasi pelanggan dalam sistem CRM, mencari peristiwa terkini secara online, atau menjalankan perhitungan khusus. Dengan terhubung langsung ke alat eksternal ini, LLM tidak lagi sekadar program chat; LLM menjadi agen cerdas yang dapat bertindak secara mandiri, yang berarti banyak hal dapat diotomatiskan.
Sebelum MCP, menghubungkan LLM ke berbagai sumber data dan alat eksternal lebih sulit, biasanya memerlukan koneksi khusus atau menggunakan metode khusus untuk setiap vendor. Hal ini mengakibatkan sistem yang rumit dan berantakan, yang sering disebut masalah "N x M", karena jumlah koneksi kustom yang diperlukan bertambah sangat cepat dengan setiap model atau alat baru. MCP menawarkan standar terbuka yang umum yang memudahkan koneksi ini, seperti halnya port USB-C yang memudahkan koneksi perangkat. Metode yang lebih sederhana ini dapat menurunkan biaya pengembangan, mempercepat pembuatan aplikasi AI, dan menciptakan lingkungan AI yang lebih terhubung. Developer juga dapat lebih mudah beralih di antara penyedia LLM dan menambahkan alat baru tanpa perubahan besar.
Meskipun Protokol Konteks Model meningkatkan kemampuan LLM dengan menghubungkannya ke sistem luar, protokol ini juga dapat membuka pertimbangan keamanan yang penting. Karena MCP dapat mengakses data apa pun dan berpotensi menjalankan kode melalui alat yang terhubung, keamanan yang kuat sangat penting.
Prinsip keamanan utama untuk MCP meliputi:
Dengan mematuhi prinsip-prinsip ini, developer dapat menggunakan kekuatan MCP sekaligus melindungi diri dari potensi risiko.
Mengimplementasikan Protokol Konteks Model memerlukan infrastruktur yang tangguh untuk menghosting LLM, server MCP, dan sumber data yang mendasarinya. Platform cloud menyediakan komponen yang skalabel dan aman yang diperlukan untuk membangun solusi lengkap. Berikut cara melakukannya:
Server MCP adalah jembatan ke alat eksternal Anda. Bergantung pada kebutuhan Anda, Anda dapat memilih:
Sebagian besar nilai MCP berasal dari alat yang dapat diaksesnya. Anda dapat menghubungkan LLM Anda ke:
Platform AI terpadu sangat penting untuk mengintegrasikan semuanya. Vertex AI membantu Anda mengelola seluruh siklus proses aplikasi yang didukung MCP:
Mulailah membangun solusi di Google Cloud dengan kredit gratis senilai $300 dan lebih dari 20 produk yang selalu gratis.