• L
  • O
  • A
  • D
  • I
  • N
  • G
AYO! IT'S PUVISH!

MCP คืออะไร? เทรนด์ใหม่ที่จะพลิกโฉมวงการ AI?

Updated on 2025-03-27T05:04:39.360Z

Written on 2025-02-24T03:19:14.092Z


Screenshot 2025-03-11 122827-2.png
MCP is an open protocol that standardizes how applications provide context to LLMs. Think of MCP like a USB-C port for AI applications. Just as USB-C provides a standardized way to connect your devices to various peripherals and accessories, MCP provides a standardized way to connect AI models to different data sources and tools.

Source: modelcontextprotocol.io

Anthropic บริษัทผู้พัฒนา Claude ซึ่งเป็นคู่แข่ง OpenAI เปรียบ ​MCP ว่าเสมือนกับสาย USB-C ที่ใช้ต่ออุปกรณ์อิเล็กทรอนิกส์เข้าด้วยกัน แต่ในกรณีนี้ คือใช้ทำหน้าที่เชื่อมต่อระหว่าง LLM Application กับเครื่องมือต่าง ๆ ที่ช่วยป้อนข้อมูลให้ LLM ซึ่งเครื่องมือเหล่านี้อาจอยู่บน Local Device ที่ Application ทำงานอยู่หรืออาจต่อเข้ากับแหล่งข้อมูลภายนอกผ่าน Protocol อื่น ๆ อีกที เช่น Database ก็เป็นได้


MCP เป็นของใหม่หรือไม่?

ถ้าถามว่า MCP Concept นี้เป็นเรื่องใหม่หรือไม่ ต้องตอบว่าเป็นสิ่งที่มีหลายคนทำตั้งแต่ LLM เริ่มมีความนิยมตั้งแต่ที่ OpenAI เปิดให้บริการ API โมเดล GPT 3.5 เลยก็ว่าได้ ซึ่ง LLM ไม่ได้เป็นเพียงแค่ Text Generator หรือ Token Predictor อย่างที่ใครคิด แต่ถูก Train ให้สามารถตอบคำถามออกมาเป็น Structured Data อย่างเช่น JSON เพื่อให้ Application สามารถนำ Parameter ต่าง ๆ มารันผ่านโค้ดใน Application แล้วนำผลลัพธ์มาตอบคำถามได้ Approach ดังกล่าวเรียกกันว่า Function Calling หรือ Tool Calling

ดูเพิ่มเติมได้ที่:

  • https://platform.openai.com/docs/guides/function-calling
  • https://docs.anthropic.com/en/docs/build-with-claude/tool-use/overview
  • https://ai.google.dev/gemini-api/docs/function-calling

ยกตัวอย่างให้เห็นภาพมากขึ้น เช่น RAG Chatbot (Retrieval-Augmented Generation) ที่หลายคนอาจคุ้นเคย ซึ่งสามารถดึงข้อมูลจาก Vector Database เพื่อนำมาใช้ตอบคำถาม ส่วนที่เชื่อมต่อกับข้อมูลภายนอกมักถูกออกแบบให้แยกส่วนออกมาจาก LLM Application หลัก (ตามแผนภาพแบบ Decoupled Architecture ด้านล่าง) เพื่อลด Load ของ Application หลัก (เนื่องจากคำถามทุกคำถามจาก User ไม่จำเป็นต้องเชื่อมต่อกับ Vector Database)

Loading diagram...


Anthropic กับลังพยายามสร้างมาตรฐานใหม่ให้ MCP

สิ่งที่ Anthropic นำเสนอคือการสร้างมาตรฐานให้กับแนวคิดที่มีการใช้งานอยู่แล้ว เปรียบเสมือนการที่ทุก ๆ ค่ายมือถือ (รวมถึง Apple 🤣) ตกลงร่วมใจใช้ USB-C เป็นสายชาร์จ Product ของตัวเอง

ซึ่งเมื่อมาเปรียบกับวงการ AI การมี Protocol ที่เป็นมาตรฐานอย่าง MCP จะช่วยให้:

  1. Developer ไม่ต้องสร้างระบบการเชื่อมต่อระหว่าง LLM กับ External Datasource
  2. LLM Application ต่าง ๆ สามารถแชร์ MCP Server เพื่อดึงข้อมูลร่วมกันได้
  3. Datasource ที่มีอยู่แล้วไม่จำเป็นต้องปรับโครงสร้างให้เข้ากันได้กับ LLM Application แค่ผ่านการ Transform ให้อยู่ในรูปแบบ Context พร้อมใช้ผ่าน MCP Server

ลองดูภาพประกอบแสดงการทำงานของ MCP ที่เชื่อมต่อ LLM Application กับ Server และ Datasource ต่าง ๆ ด้านล่างอาจจะทำให้เข้าใจได้มากขึ้น

Loading diagram...

ยกตัวอย่างง่าย ๆ ว่า LLM_APP เป็น Chatbot Application ทั่วไป แต่มีความพิเศษตรงที่สามารถตอบคำถามนอกเหนือจาก Pre-trained Knowledge ได้ด้วย เนื่องจากสามาถเชื่อมต่อเข้ากับ SERVER ที่ทำหน้าที่เชื่อมต่อเข้ากับแหล่งข้อมูลภายนอกอีกที เพื่อนำ Context มาช่วยในการตอบคำถาม

ตัวอย่าง Datasource จาก Diagram ข้างต้นอาจมาจาก RDBMS, SaaS หรือ API Service ต่าง ๆ เช่น:

  • DATABASE เช่น Postgres, MySQL, SQLite
  • DOC_MGMT_SYSTEM เช่น Confluence, Notion, Obsidian
  • EXTERNAL_API เช่น Stock API, Weather API

นำ MCP มาประยุกต์ใช้จริง

หากนำ MCP มาประยุกต์ใช้ในขอบเขตที่กว้างขึ้น (เช่น บริษัท IT ) จะสามารถสร้าง Hivemind Application ที่สามารถตอบคำถามโดยอาศัยความรู้จากทั่วทั้งบริษัทได้โดยนำ Context จากแผนกหรือหน่วยงานต่าง ๆ มาอ้างอิง

แผนภาพแสดงการเชื่อมต่อ MCP กับระบบต่างๆ ในองค์กร

Loading diagram...

HR & Recruiting
  • แน่นอนว่า Document Management System ที่องค์กรส่วนใหญ่นิยมใช้มักจะเป็น SharePoint หรือ Google Drive ซึ่งมี REST API รองรับการเชื่อมต่ออยู่แล้ว กรณีนี้อาจมองเป็นระบบที่ใช้เก็บเอกสารประเภทสวัสดิการพนักงาน ระเบียบภายในบริษัท หากนำ MCP มาใช้ประโยชน์จะสามารถสร้าง Chatbot ที่ตอบคำถามเกี่ยวกับเอกสารข้างต้นได้ ช่วยลดภาระงานด้านถามตอบคำถามทั่วไปให้กับพนักงานแผนก HR ได้
  • ส่วน Workday ใช้ในการจัดการทรัพยากรบุคคล เก็บข้อมูลพนักงาน จัดการระบบการจ้างงาน จัดการ Resume ของผู้สมัครงานนั้น หาก LLM สามารถเข้าถึงข้อมูลเหล่านี้ได้ จะช่วยให้ทราบข้อมูลหนักงานจากการถามตอบแบบ Natural Language ได้ เช่น "อยากทราบพนักงานที่มีอายุงานมากกว่า 10 ปีว่ามีจำนวนทั้งหมดกี่คน" กรณีนี้ สามารถระบุ Tool เพื่อให้ LLM ตอบเป็น Parameter เพื่อนำ hire_date กับ datetime.today() มาคำนวณเพื่อ Filter ข้อมูลพนักงาน เพื่อให้ได้ Context สำหรับนำมาตอบเป็น Natural Language
Sales & Marketing
  • ใช้ MCP เชื่อมต่อเข้ากับระบบ CRM ยอดนิยมอย่าง Salesforce หรือเจ้าอื่น ๆ เพื่อช่วยจัดการ Operation ด้านลูกค้าสัมพันธ์ ไม่ว่าจะเป็น Ticket, Email Marketing, หรือต่อเข้ากับ CRM Chatbot สำหรับ Customer Service
IT
  • เชื่อมต่อเข้ากับ JIRA สำหรับ Operation ด้าน Project Management สำหรับส่ง Context จากข้อมูลใน Ticket ให้ LLM กรณีที่ Product มีการเพิ่ม Feature หรือแก้ Bug
  • อาจเชื่อมต่อเข้ากับ Confluence ผ่าน GraphQL (หรือ REST) เพื่อรับ Context เกี่ยวกับ API Specification เพื่อถามตอบเกี่ยวกับดีไซน์ของ Application หรือใช้อ้างอิงในการเพิ่ม Feature หรือแก้ Bug จาก Ticket ใน JIRA
  • นอกจากนี้อาจใช้ประโยชน์จาก Remote Desktop ผ่านการเชื่อต่อกับ Virtual หรือ Physical Machine เพื่อรันโค้ด หรือ Execute Command ต่าง ๆ ได้อีกด้วย

เมื่อมี Standard Protocol อย่าง MCP มาช่วย องค์กรจะสามารถสร้างระบบ LLM Application ที่เข้าถึงข้อมูลได้อย่างครอบคลุมและตอบคำถาม User ได้ฉลาดขึ้น โดยลดความซับซ้อนและความยุ่งยากในการเชื่อมต่อ Tech Stack ต่าง ๆ เข้าด้วยกันได้ดียิ่งขึ้น


ข้อจำกัดของ MCP

เนื่องจาก MCP เป็น Framework ที่ถูกพัฒนาโดย Anthropic จึงรองรับเฉพาะโมเดล Claude ผ่านแอป Claude Desktop เป็นหลัก แต่จะมี Tool บางประเภทที่รองรับ MCP ด้วยเช่นกัน

  • IDE เช่น Cursor, Zed และ Windsurf
  • Chat Interface เช่น Librechat
  • อื่น ๆ ดูเพิ่มเติมได้ที่ modelcontextprotocol.io

อย่างไรก็ตาม มี Developer หลายคนที่พยายามสร้าง Adapter Framework เพื่อให้โมเดลจาก OpenAI หรือ Google Gemini สามารถเชื่อมต่อกับ MCP Server ได้ เช่น https://github.com/bartolli/mcp-llm-bridge


MCP ถือเป็นก้าวสำคัญในการสร้าง Standard การเชื่อมต่อระหว่าง LLM และ External Datasource แม้ว่าแนวคิดนี้จะไม่ใช่เรื่องใหม่ แต่การมี Standard Protocol แบบนี้จะช่วยลดความยุ่งยากในการพัฒนา LLM Application และเพิ่มความรวดเร็วในการขยายระบบเข้ากับ Datasource ใหม่ ๆ ได้ดียิ่งขึ้น

ในอนาคต หาก MCP Ecosystem เติบโตขึ้นกว่านี้ และมีการสนับสนุนจากโมเดล AI จากหลายเจ้าอย่างเป็นทางการมากขึ้น จะยิ่งเพิ่มโอกาสในการสร้าง LLM Application ใหม่ ๆ ที่มีลูกเล่นมากขึ้นและตอบคำถามได้ฉลาดยิ่งขึ้น

จะเป็นยังไงต่อต้องคอยติดตามดูกัน 💁👌


no comments yet

Connect with me?