在MCP出現之前,每項AI工具整合都是客製化的。MCP代表只要開發一次的工具,就能與任何相容的AI搭配使用。目前已支援Claude、Cursor等工具。這就是AI從聊天機器人轉變為真正助手的方式。
MCP 基於 JSON-RPC 的客戶端-伺服器架構運作。MCP 伺服器是一個小型程式,透過標準化介面公開一組工具、資源和提示。MCP 客戶端——通常是 Claude Desktop、Cursor 或 Windsurf 這類 AI 應用程式——會發現伺服器提供的功能,並將這些功能提供給模型使用。當模型決定使用工具時,客戶端會向伺服器傳送 JSON-RPC 請求,取得結果後再反饋回對話中。傳輸層具有彈性:伺服器可以透過 stdio(用於本地程序)、帶有伺服器推送事件的 HTTP(用於遠端服務),或可串流的 HTTP(最新傳輸方式,將請求-回應與串流整合於單一連線中)進行通訊。
建立 MCP 伺服器的設計刻意簡化。在 Python 中,您可以使用官方 mcp SDK,僅需約 20 行程式碼即可建立運作中的伺服器——您只需用 @server.tool() 裝飾函數,提供描述與類型參數,SDK 即會處理 JSON-RPC、模式生成與傳輸。在 TypeScript 中,@modelcontextprotocol/sdk 套件的運作方式相同。伺服器在初始化時會宣告其功能(擁有什麼工具、是否支援資源或提示),客戶端則會協商其想要使用的功能。這表示您可以從簡單開始——例如僅包裝公司內部 API 的伺服器——並逐步增加功能。
當考慮 MCP 所解決的組合問題時,MCP 相較於客製化工具整合的真正優勢便顯而易見。在 MCP 出現之前,如果您有 10 個 AI 應用程式和 10 個工具,就需要 100 個客製化整合。使用 MCP 只需 10 個伺服器和 10 個客戶端——每個只需建立一次。這正是讓 USB 成功的相同模式:標準化介面,生態系統便能擴展。實際上,這表示由一位開發者建立的 Postgres MCP 伺服器可與 Claude、Cursor、Zed 和任何其他 MCP 兼容客戶端無需修改即可協作。目前 MCP 伺服器生態系統已包含數百個由社群建立的伺服器,支援資料庫、API、開發工具和雲端服務。
有一些重要細節實務者應當了解。首先,MCP 伺服器分為兩種類型:在您機器上執行的本機伺服器(適合檔案存取、本地資料庫和開發工具)和作為託管服務執行的遠端伺服器(適合共用基礎設施和 SaaS 整合)。其次,安全性是真實考量——MCP 伺服器的權限等同於執行它的程序,因此範圍設定不當的伺服器可能暴露敏感資料。協議包含能力協商步驟,但遠端伺服器的存取控制與驗證仍在持續發展中。第三,MCP 與工具使用並不相同——它是一個位於工具使用底層的傳輸與發現層。支援工具呼叫的模型可以與 MCP 協作,但 MCP 還處理資源訂閱(即時更新的上下文)和超越簡單函數呼叫的提示模板等。
Anthropic 於 2024 年底開放源碼 MCP,採用速度驚人。到 2025 年初,Claude、Cursor、Windsurf、Zed、Sourcegraph 和許多其他應用程式均已支援 MCP。規格持續演進——可串流 HTTP 傳輸、基於 OAuth 的遠端伺服器驗證,以及引導(讓伺服器在流程中向用戶請求輸入)等功能均於 2025 年實現。如果您在選擇建立客製化工具整合與建立 MCP 伺服器之間猶豫,MCP 路線幾乎總是勝出:您可免費與所有 MCP 客戶端相容,且協議足夠簡單,遷移成本幾乎為零。