Updated on 2025-03-14T01:56:24.273Z
Written on 2025-02-24T03:19:14.092Z
MCP is an open protocol that standardizes how applications provide context to LLMs. Think of MCP like a USB-C port for AI applications. Just as USB-C provides a standardized way to connect your devices to various peripherals and accessories, MCP provides a standardized way to connect AI models to different data sources and tools.
Source: modelcontextprotocol.io
Anthropic บริษัทผู้พัฒนา Claude ซึ่งเป็นคู่แข่ง OpenAI เปรียบ MCP ว่าเสมือนกับสาย USB-C ที่ใช้ต่ออุปกรณ์อิเล็กทรอนิกส์เข้าด้วยกัน แต่ในกรณีนี้ คือใช้ทำหน้าที่เชื่อมต่อระหว่าง LLM Application กับเครื่องมือต่าง ๆ ที่ช่วยป้อนข้อมูลให้ LLM ซึ่งเครื่องมือเหล่านี้อาจอยู่บน Local Device ที่ Application ทำงานอยู่หรืออาจต่อเข้ากับแหล่งข้อมูลภายนอกผ่าน Protocol อื่น ๆ อีกที เช่น Database ก็เป็นได้
ถ้าถามว่า MCP Concept นี้เป็นเรื่องใหม่หรือไม่ ต้องตอบว่าเป็นสิ่งที่มีหลายคนทำตั้งแต่ LLM เริ่มมีความนิยมตั้งแต่ที่ OpenAI เปิดให้บริการ API โมเดล GPT 3.5 เลยก็ว่าได้ ซึ่ง LLM ไม่ได้เป็นเพียงแค่ Text Generator หรือ Token Predictor อย่างที่ใครคิด แต่ถูก Train ให้สามารถตอบคำถามออกมาเป็น Structured Data อย่างเช่น JSON เพื่อให้ Application สามารถนำ Parameter ต่าง ๆ มารันผ่านโค้ดใน Application แล้วนำผลลัพธ์มาตอบคำถามได้ Approach ดังกล่าวเรียกกันว่า Function Calling หรือ Tool Calling
ดูเพิ่มเติมได้ที่:
ยกตัวอย่างให้เห็นภาพมากขึ้น เช่น RAG Chatbot (Retrieval-Augmented Generation) ที่หลายคนอาจคุ้นเคย ซึ่งสามารถดึงข้อมูลจาก Vector Database เพื่อนำมาใช้ตอบคำถาม ส่วนที่เชื่อมต่อกับข้อมูลภายนอกมักถูกออกแบบให้แยกส่วนออกมาจาก LLM Application หลัก (ตามแผนภาพแบบ Decoupled Architecture ด้านล่าง) เพื่อลด Load ของ Application หลัก (เนื่องจากคำถามทุกคำถามจาก User ไม่จำเป็นต้องเชื่อมต่อกับ Vector Database)
Loading diagram...
สิ่งที่ Anthropic นำเสนอคือการสร้างมาตรฐานให้กับแนวคิดที่มีการใช้งานอยู่แล้ว เปรียบเสมือนการที่ทุก ๆ ค่ายมือถือ (รวมถึง Apple 🤣) ตกลงร่วมใจใช้ USB-C เป็นสายชาร์จ Product ของตัวเอง
ซึ่งเมื่อมาเปรียบกับวงการ AI การมี Protocol ที่เป็นมาตรฐานอย่าง MCP จะช่วยให้:
ลองดูภาพประกอบแสดงการทำงานของ MCP ที่เชื่อมต่อ LLM Application กับ Server และ Datasource ต่าง ๆ ด้านล่างอาจจะทำให้เข้าใจได้มากขึ้น
Loading diagram...
ยกตัวอย่างง่าย ๆ ว่า LLM_APP
เป็น Chatbot Application ทั่วไป แต่มีความพิเศษตรงที่สามารถตอบคำถามนอกเหนือจาก Pre-trained Knowledge ได้ด้วย เนื่องจากสามาถเชื่อมต่อเข้ากับ SERVER
ที่ทำหน้าที่เชื่อมต่อเข้ากับแหล่งข้อมูลภายนอกอีกที เพื่อนำ Context มาช่วยในการตอบคำถาม
ตัวอย่าง Datasource จาก Diagram ข้างต้นอาจมาจาก RDBMS, SaaS หรือ API Service ต่าง ๆ เช่น:
DATABASE
เช่น Postgres, MySQL, SQLiteDOC_MGMT_SYSTEM
เช่น Confluence, Notion, ObsidianEXTERNAL_API
เช่น Stock API, Weather APIหากนำ MCP มาประยุกต์ใช้ในขอบเขตที่กว้างขึ้น (เช่น บริษัท IT ) จะสามารถสร้าง Hivemind Application ที่สามารถตอบคำถามโดยอาศัยความรู้จากทั่วทั้งบริษัทได้โดยนำ Context จากแผนกหรือหน่วยงานต่าง ๆ มาอ้างอิง
แผนภาพแสดงการเชื่อมต่อ MCP กับระบบต่างๆ ในองค์กร
Loading diagram...
hire_date
กับ datetime.today()
มาคำนวณเพื่อ Filter ข้อมูลพนักงาน เพื่อให้ได้ Context สำหรับนำมาตอบเป็น Natural Languageเมื่อมี Standard Protocol อย่าง MCP มาช่วย องค์กรจะสามารถสร้างระบบ LLM Application ที่เข้าถึงข้อมูลได้อย่างครอบคลุมและตอบคำถาม User ได้ฉลาดขึ้น โดยลดความซับซ้อนและความยุ่งยากในการเชื่อมต่อ Tech Stack ต่าง ๆ เข้าด้วยกันได้ดียิ่งขึ้น
เนื่องจาก MCP เป็น Framework ที่ถูกพัฒนาโดย Anthropic จึงรองรับเฉพาะโมเดล Claude ผ่านแอป Claude Desktop เป็นหลัก แต่จะมี Tool บางประเภทที่รองรับ MCP ด้วยเช่นกัน
อย่างไรก็ตาม มี Developer หลายคนที่พยายามสร้าง Adapter Framework เพื่อให้โมเดลจาก OpenAI หรือ Google Gemini สามารถเชื่อมต่อกับ MCP Server ได้ เช่น https://github.com/bartolli/mcp-llm-bridge
MCP ถือเป็นก้าวสำคัญในการสร้าง Standard การเชื่อมต่อระหว่าง LLM และ External Datasource แม้ว่าแนวคิดนี้จะไม่ใช่เรื่องใหม่ แต่การมี Standard Protocol แบบนี้จะช่วยลดความยุ่งยากในการพัฒนา LLM Application และเพิ่มความรวดเร็วในการขยายระบบเข้ากับ Datasource ใหม่ ๆ ได้ดียิ่งขึ้น
ในอนาคต หาก MCP Ecosystem เติบโตขึ้นกว่านี้ และมีการสนับสนุนจากโมเดล AI จากหลายเจ้าอย่างเป็นทางการมากขึ้น จะยิ่งเพิ่มโอกาสในการสร้าง LLM Application ใหม่ ๆ ที่มีลูกเล่นมากขึ้นและตอบคำถามได้ฉลาดยิ่งขึ้น
จะเป็นยังไงต่อต้องคอยติดตามดูกัน 💁👌