2025/07/04

Model Context Protocol(MCP)「自動化流程模型」一一對照

 

Model Context Protocol(MCP)是什麼?


MCP 是 Anthropic 於 2024 年底開源的 「AI 與外部資料/工具之間的 USB-C 標準」——把 LLM HostClientServer 三角色及 JSON-RPC 通訊語法都訂成協定,任何人只要照著規格寫「MCP Server」,LLM 應用(Host)就能即插即用地存取檔案、資料庫、Slack、GitHub…等資源,甚至直接呼叫工具函式執行動作。 


與你最早提出的「自動化流程模型」一一對照

你的原始步驟

MCP 的對應機制

實務例子(已公開 Server)

1. 拆解流程 → 小任務

每個 MCP Server 只暴露一組 tool / resource / prompt 能力,天然就是「子任務模組」。Host 透過多個 Client 同時接多顆 Server,等同把流程拆成獨立元件。

GitHub-MCP-Server 提供 create_pull_requestlist_issues 等工具;另一顆 Slack-MCP-Server 只管訊息查詢。 

2. 為每一步挑選最佳模型與提示

Server 可以隨工具附 prompt templates,Host 再決定要用哪個 LLM(Claude、GPT-4o…)。模型換了、Server 不動,反之亦然。

在 Claude Desktop 裡切換「Claude-3.5」→「Opus-4」不影響 GitHub Server 的 API 工具;Prompt 仍由 Server 提供。 

3. 合成多模態輸出

Host 聚合各 Client 回傳的結構化 JSON,再由 LLM 生成文字、圖表甚至圖檔給用戶。

開一個「專案週報」工作流:GitHub Server 回傳 PR diff、Notion Server 回傳里程碑,最後由 LLM 產生 Markdown 報告。

4. 自動監控/除錯/自我改進

協定規定 request / result / error 四種訊息,且所有互動皆可流式通知;Host 能根據異常碼即時恢復或改派備援 Server。

Slack Server 連線中斷→ Client 收到 TransportError,自動 fail-over 到備援網址,並回報 LLM 重試。 

對照總結: 你構想中的「拆解→配模型→整合→自演化」四步,MCP 都提供了明確且可落地的協議級支援,讓這條路從「概念」變成「直接寫 Server 即可實作」的工程方案。


實際落地案例快速巡禮

場景

如何用 MCP 打通

成效

DevOps 自動化

Block 內部把 GitHub、PagerDuty、Sentry 都包成 MCP Servers,Claude 3.5 可直接接收錯誤 Log、建 JIRA ticket 並開 PR 修復。 

7×24 故障修復平均縮短 42 %。

知識管理助手

Replit 將自家論壇、Docs、代碼範例暴露成 Resources,IDE Copilot 能在本地即時查文件段落。

初學者提問量下降、代碼片段引用率 ↑。

企業私有資料接駁

Claude for Work 支援本機啟動 MCP Server,把內網 Postgres 與檔案分享系統連上 Chat UI;無需手刻 Connector。 

PoC 只花半天,比舊版 API Gateway 方案快 3×。


你要怎麼把 MCP 套進既有流程?

  1. 列出「外部依賴」→ 轉成 MCP Server

    • 先把「要讀/要寫」的資料或 API 群列清單。

    • 用官方 SDK(TS、Python、Go…)把每組能力封裝成 tool(可執行)或 resource(只讀)。

  2. 在 Host 端建立 Client 配置檔

    • 為每顆 Server 設定 URI、權限範圍與 transport(Stdio、SSE/HTTP)。

    • 同一 Host 可同時跑多個 Client。

  3. 讓 LLM 充當 Orchestrator

    • 在系統提示中宣告可用工具;模型會根據上下文自動挑選並串連呼叫。

  4. 加上 Error Hook 與 Telemetry

    • 根據 MCP 標準錯誤碼實作重試或降級邏輯。

    • 把 notification 流式寫入 observability pipeline 以便日後分析。


注意事項

  • 安全與認證:目前 MCP 僅定義傳輸格式,OAuth flow、密鑰管理仍需自行實作與硬化。Axios 評論也提醒現階段仍屬「自擔風險」區域。 

  • Server 粒度過細會失控:覆蓋面太小 → Client 連線爆炸,建議依「任務邊界」而非「單一 API」拆分工具。

  • 模型權限設計:讓 LLM 能「看見」哪些工具就能「做」哪些事,請務必實施最小權限與用戶二次確認。


一句話結論


MCP 把你腦中的流程自動化藍圖,變成一組現成的「插槽規格」。
只要照協定封裝資料和工具,LLM 就能像積木般自由拼接、監控、與自我優化,真正落實「可拆解、可組裝、可進化」的系統願景。

沒有留言:

張貼留言