# AI Agent 候選方案評估報告
| 欄位 | 內容 |
| ------------ | --------------------------------- |
| **基準架構** | AI_Agent系統_SA文件_v4(MEC-AI) |
| **評估日期** | 2026-03-23 |
| **評估目的** | 評估第三方專案能否取代或強化現有後端架構 |
---
## 評估基準(源自 SA 文件限制條件)
| 編號 | 評估準則 | 說明 |
| ---- | ------------------------------- | ------------------------------------------------------------------ |
| C1 | 非 Docker 原生安裝 | Docker 需要額外開通權限,列為最後手段;優先支援直接安裝 |
| C2 | 支援 Windows | Client 端與 Server 端皆須能在 Windows 環境運行 |
| C3 | 支援 llama.cpp | LLM 推理引擎須能整合 llama.cpp(本地 GGUF 量化模型) |
| C4 | 功能完整性 | 須具備 RAG、MCP、SKILLS(指令/知識)、AGENT 等核心功能 |
| C5 | 低資源消耗 | 適合 OA 筆電部署,記憶體與運算需求合理(小模型優先) |
| C6 | 公司/專案存續性 | 評估開發組織穩定度、社群活躍度、授權風險 |
| C7 | 商用化風險 | 考量專案未來增加付費功能或授權限制的可能性,影響長期維護成本 |
---
## 分類架構說明
MEC-AI SA 文件的後端由以下層次組成,各候選方案依其「可取代/強化哪一層」進行分類:
```
┌─────────────────────────────────────────────┐
│ 前端 React + Vite + TailwindCSS │ ← 分類 A 相關
├─────────────────────────────────────────────┤
│ 後端 FastAPI (Python) │ ← 分類 A 相關
├─────────────────────────────────────────────┤
│ Agent 層 LangGraph + LangChain │ ← 分類 B 相關
│ + langchain-mcp-adapters │
├─────────────────────────────────────────────┤
│ MCP 工具 CAD Tools MCP Server (Port 8100) │ ← 分類 C 相關
├─────────────────────────────────────────────┤
│ LLM 推理 llama.cpp server (GGUF) │ ← 分類 D 相關
│ + nomic-embed-text Embedding │
├─────────────────────────────────────────────┤
│ 資料層 PostgreSQL + pgvector │ ← 分類 E 相關
│ SQLite (Client 本機) │
└─────────────────────────────────────────────┘
```
| 分類 | 說明 | 典型取代/強化位置 | 目前已評估方案 |
| ----------------------- | ---------------------------------------------------------------------------- | ------------------------------------- | ----------------------- |
| **A. 全棧 Chat 平台** | 提供完整前端 UI + 後端服務(含使用者管理);涵蓋低代碼應用建構器與 AI 原生聊天平台兩種形態 | 後端 + 前端(全棧取代) | Budibase、LibreChat、OpenWork、Cline、Aider、onyx、opencode、AnythingLLM |
| **B. Agent 框架** | 提供 Agent 邏輯編排、工具呼叫、記憶管理;可以視覺化或程式化方式替換 LangGraph | 後端 Agent 層 | Langflow、OpenClaw、nanobot、NanoClaw、PicoClaw、IronClaw、ZeroClaw、deepagents |
| **C. MCP 工具生態** | 提供 MCP Server / Client 實作,可附加整合至現有 Agent 架構 | MCP 層(附加,不需全面取代) | -(待評估) |
| **D. LLM 推理服務** | 提供本地 LLM 推理端點(OpenAI-compatible API),取代裸 llama.cpp server | LLM 推理層 | LM Studio、GPT4All、Jan |
| **E. RAG / 向量引擎** | 專注於文件向量化、語意搜尋、Rerank,可替換或強化 pgvector 流程 | 資料層 RAG 端 | kotaemon、Quivr |
---
## 候選方案評估
---
### 方案 1:Budibase
- **GitHub**:https://github.com/Budibase/budibase
- **Stars**:~27,800(2026-03)
- **分類**:A — 低代碼平台(Low-Code Platform with AI Agent)
- **授權**:GPL v3(核心)/ MPL 2.0(Client/元件庫)
- **語言**:TypeScript 62%、Svelte 33%
- **組織**:Budibase Ltd(英國,VC 資助,持續商業化)
#### 功能分析
| 功能面向 | Budibase 能力 | 備註 |
| --------------- | -------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------- |
| **Agent** | ✅ 內建 Agents 模組,支援 Instructions、Tools、Automation handoff | 近期(2025-2026)積極功能,尚在快速演進中 |
| **RAG** | ✅ 支援 Agent embedding models + Agent vector databases(連外部向量 DB) | 需自行配置外部向量 DB(如 pgvector) |
| **MCP** | ❌ 無原生 MCP 支援;使用自有 Tools 協議(Budibase Automations / REST API 呼叫方式) | 與 MCP 生態不兼容 |
| **SKILLS** | ⚠️ 透過 Instructions Prompt + 自訂 Automation Step 模擬;無正式 SKILLS 機制 | 比 SA 文件定義的 SKILLS 更鬆散 |
| **LLM 整合** | ✅ 支援 Custom Provider(OpenAI-compatible endpoint),理論上可指向 llama.cpp server | 需 llama.cpp 開啟 OpenAI-compatible API(`--api`) |
| **前端** | ✅ 完整低代碼前端建構器(Svelte-based),含 Chatbox 元件 | 但為平台式 UI,彈性低於自訂 React 方案 |
| **多模態** | ❌ 無原生圖片上傳分析整合(視覺語言模型需自行串接) | FR-04 視覺分析難以直接實現 |
| **串流輸出 SSE**| ⚠️ Agent Chat 有串流回應,但細節(SSE 格式、sources 事件)不可自訂 | 無法完整對應 SA 文件定義的 SSE 事件規格 |
| **稽核日誌** | ✅ 企業版(🔒)提供 Audit Logs;免費版不含 | FR-05 稽核需求須升級付費方案 |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| -------- | ------- | ---------------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ❌ **不符合** | Budibase 所有自架方式(Docker、Docker Compose、K8s、Portainer)**皆依賴容器技術**;無 Windows native 安裝方式;Budibase CLI 仍需 Docker |
| C2 Windows | ❌ **不符合** | 無法在 Windows 上非 Docker 環境直接安裝與執行 Budibase Server |
| C3 llama.cpp | ⚠️ **條件支援** | Budibase 可透過「Custom Provider」指向 llama.cpp 的 OpenAI-compatible API(`localhost:8080`),但 Budibase 本體仍須 Docker 運行 |
| C4 功能完整 | ⚠️ **部分符合** | Agent + RAG 支援,但缺少 MCP 整合&原生視覺多模態 |
| C5 低資源 | ❌ **不符合** | Budibase 本體需要 Node.js 後端 + CouchDB + MinIO + Redis,資源需求顯著高於 SA 文件方案 |
| C6 存續性 | ✅ **良好** | ~27,800 Stars,穩定版更新(v3.34.4),VC 資助,商業產品線清晰 |
| C7 商用風險 | ⚠️ **中風險** | 核心功能開源(GPL v3),但**企業級功能(Audit Logs、SSO Enforce、Backups、AI Column)標記 🔒(付費)**;AI 功能快速商業化中,未來功能可能逐步鎖定 |
#### 整合評估
| 取代場景 | 可行性 | 說明 |
| --------------------------- | ---------- | --------------------------------------------------------------------------------------------- |
| 完整取代後端(FastAPI) | ❌ 不建議 | Budibase 無法滿足自訂 SSE 串流、MCP 呼叫、多模態分析等核心需求 |
| 取代前端(React) | ⚠️ 謹慎 | 可快速建立 Chatbox UI,但彈性不足、長期定制成本高 |
| 取代 Agent 框架(LangGraph)| ❌ 不建議 | Budibase Agent 本質是低代碼的「Automation + LLM」,無法替代狀態機式的 LangGraph 多步 Agent |
| 作為管理後台(Documents/Admin UI)| ✅ 可考慮 | 可用 Budibase 建立文件管理、批次匯入進度查閱等管理頁面,作為 Admin UI 補充 |
#### 總評
| 向度 | 評分(5分制)| 說明 |
| ------------ | ------------ | ---------------------------------------------- |
| 功能符合度 | ⭐⭐ (2/5) | 缺 MCP、缺多模態、SSE 不可自訂 |
| 部署便利性 | ⭐ (1/5) | 強依賴 Docker,與核心限制條件直接衝突 |
| 資源消耗 | ⭐⭐ (2/5) | 服務元件多(CouchDB、MinIO、Redis),資源沉重 |
| 公司存續性 | ⭐⭐⭐⭐ (4/5) | 商業化路線清晰,但有功能鎖定趨勢 |
| 商用成本風險 | ⭐⭐ (2/5) | 企業功能逐步付費化,長期維護優於不確定性 |
| **綜合推薦** | ❌ **不建議作為核心架構取代方案** | |
**建議定位**:若未來有需求,可評估以 Budibase 作為**文件管理 Admin UI** 的快速原型工具,但前提是已額外解決 Docker 部署權限問題;不建議取代任何 AI Agent 核心層。
---
## 評估矩陣總覽
| 方案 | 分類 | C1 非Docker | C2 Windows | C3 llama.cpp | C4 功能 | C5 資源 | C6 存續 | C7 商用風險 | 綜合建議 |
| ------------------------------ | ----------------- | ----------- | ---------- | ------------ | ------- | ------- | ------- | ----------- | ----------------------------------------------------------- |
| Budibase | A 低代碼平台 | ❌ | ❌ | ⚠️ | ⚠️ | ❌ | ✅ | ⚠️ | ❌ 不建議(主架構) |
| LM Studio / lms(llmster) | D LLM 推理服務 | ✅ | ✅ | ✅ | ⚠️ | ✅ | ✅ | ⚠️ | ✅ **首選:取代 llama.cpp server 層** |
| GPT4All | D LLM 推理服務 | ✅ | ✅ | ✅ | ⚠️ | ✅ | ⚠️ | ✅ | ⚠️ 授權備援(缺 Embedding API,需額外部署 nomic Embed 服務)|| Jan(janhq/jan) | D LLM 推理服務 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ **授權最乾淨的全功能替代方案(Apache 2.0,含 Embedding API + MCP + CLI)** |
| Langflow | B Agent 框架 | ✅ | ✅ | ⚠️ | ✅ | ⚠️ | ✅ | ✅ | ⚠️ **視覺化 LangGraph 取代方案;功能豐富但增加架構複雜度** |
| LibreChat | A 全棧 Chat 平台 | ✅ | ✅ | ⚠️ | ⚠️ | ⚠️ | ✅ | ✅ | ⚠️ **適合多用戶 AI 工具站附加部署;不建議取代核心 LangGraph 架構** |
| OpenClaw | B Agent 框架 | ✅ | ⚠️ | ❌ | ⚠️ | ✅ | ✅ | ✅ | ❌ **雲端 LLM 強依賴、Windows 需 WSL2、設計為個人通訊助理(非企業 AI 後端),不建議用於 MEC-AI** |
| nanobot | B Agent 框架 | ✅ | ⚠️ | ⚠️ | ⚠️ | ✅ | ✅ | ✅ | ⚠️ **OpenClaw 超輕量 Python 圖像;MCP Client 支援、可接 llama.cpp(custom 端點);適合附加小型 Bot 平台** |
| NanoClaw | B Agent 框架 | ❌ | ❌ | ⚠️ | ⚠️ | ⚠️ | ✅ | ✅ | ❌ **Docker 強制要求、macOS/Linux only、Anthropic API 強依賴,不建議用於 MEC-AI** |
| PicoClaw | B Agent 框架 | ✅ | ✅ | ✅ | ⚠️ | ✅ | ✅ | ✅ | ✅ **Go 超輕量(<10MB RAM / <1秒啟動)、Windows 原生、MCP 內建、OpenAI-compatible api_base 直連 llama.cpp;B 類最佳選擇** |
| IronClaw | B Agent 框架 | ⚠️ | ✅ | ⚠️ | ✅ | ⚠️ | ✅ | ✅ | ⚠️ **Rust 安全優先 Agent;B 類功能最完整(MCP + pgvector RAG + Hybrid Search + WASM 沙盒);NEAR AI OAuth 與 PostgreSQL 必要依賴是主要障礙** |
| ZeroClaw | B Agent 框架 | ✅ | ⚠️ | ✅ | ⚠️ | ✅ | ✅ | ✅ | ⚠️ **Rust <5MB/<10ms、OpenAI-compatible 自訂端點直連 llama.cpp、MCP + 20+頻道 + Web UI;Windows onboard 需 WSL2;Harvard/MIT 社群主導、活躍度最高** |
| OpenWork | A 全棧 Chat 平台 | ⚠️ | ✅ | ⚠️ | ❌ | ⚠️ | ✅ | ✅ | ❌ **OpenCode 驅動的桌面 GUI(Claude Cowork 替代品);專注程式碼編輯工作流程;設計定位與 MEC-AI 文件查詢/CAD 工具助理場景不符** |
| Cline | A 全棧 Chat 平台 | ✅ | ✅ | ✅ | ⚠️ | ⚠️ | ✅ | ✅ | ❌ **59.2k stars Apache 2.0 VS Code 擴充套件形式的自主 AI Coding 助理;支援 OpenAI-compatible 端點(可接 llama.cpp)+ MCP 原生;但設計定位為 IDE 開發輔助,無文件 RAG / 無多頻道,不符合 MEC-AI 企業後端需求** |
| Aider | A 全棧 Chat 平台 | ✅ | ✅ | ✅ | ❌ | ⚠️ | ✅ | ✅ | ❌ **42.3k stars Apache 2.0 純終端機 AI Pair Programming 工具;pip 安裝無依賴,支援任意 OpenAI-compatible API(包含 llama.cpp);無 RAG / 無多頻道 / 無排程,設計定位為開發者 Coding 工具,不符合 MEC-AI 後端需求** |
| kotaemon | E RAG/向量引擎 | ✅ | ⚠️ | ✅ | ✅ | ⚠️ | ✅ | ✅ | ✅ **E 類首選:25.2k stars Apache 2.0;完整 RAG Web UI(Hybrid 全文+向量+Rerank)+ GraphRAG + MCP 工具(最新 v0.11.2)+ llama-cpp-python 本地 LLM + 多模態文件解析;可直接取代 MEC-AI pgvector RAG 流程,正确區塊不廭** |
| deepagents | B Agent 框架 | ✅ | ✅ | ✅ | ⚠️ | ✅ | ✅ | ✅ | ⚠️ **16.8k stars MIT;由 langchain-ai 官方出品;create_deep_agent() 直接返回編譯後的 LangGraph graph,與 MEC-AI 技術检完全相容;MCP 透過 langchain-mcp-adapters 支援(與 MEC-AI 相同依賴);可直接取代 LangGraph Agent 層,但無內建 RAG / Shell 執行工具安全需評估** |
| onyx | A 全棧 Chat 平台 | ❌ | ⚠️ | ✅ | ✅ | ❌ | ✅ | ⚠️ | ⚠️ **18k stars MIT(CE)/商業(EE);功能最全面的 A 類平台(RAG+Agent+MCP+40+連接器+深度研究);但 Docker 為官方唯一部署路徑且多服務重資源,器端機器不適合;部分功能逐步 EE 鍵定風險** |
| opencode | A 全棧 Chat 平台 | ✅ | ⚠️ | ✅ | ⚠️ | ⚠️ | ✅ | ✅ | ❌ **128k stars MIT;anomalyco(SST)出品;TUI+Desktop+IDE擴充的 AI Coding Agent;llama.cpp + MCP 官方原生支援;但定位為 Coding 助理(非文件查詢/CAD 工具),不符合 MEC-AI 企業後端需求;A 類 Coding Agent 開發工具中綜合最佳首選** |
| AnythingLLM | A 全棧 Chat 平台 | ⚠️ | ✅ | ✅ | ✅ | ⚠️ | ✅ | ✅ | ⚠️ **56.6k stars MIT;Mintplex Labs 出品;All-in-One AI+RAG Chat App;llama.cpp 官方支援 + MCP 完整相容 + 內建 RAG(LanceDB/pgvector/Qdrant等)+ No-code Agent Builder;Desktop .exe Windows 免 Docker;但 Bare Metal 不受官方支援、多用戶功能僅 Docker;A 類中功能最接近 MEC-AI 結構需求的全棧方案** |
| Quivr | E RAG/向量引擎 | ✅ | ⚠️ | ⚠️ | ⚠️ | ✅ | ❌ | ⚠️ | ❌ **39k stars Apache→有EE層;Python純庫(pip install quivr-core);FAISS+pgvector+Reranker+Workflow RAG;無前端 UI/無 MCP/無多用戶;Ollama 中轉支援局域 LLM;最新 commit 9 個月前、最新 release Feb 2025(實際停滞);C6 存續性最大風險** |
圖例:✅ 符合 | ⚠️ 條件符合 | ❌ 不符合
---
## 附錄:SA 文件架構核心需求對照
| SA 文件需求 | Budibase 現況 |
| ------------------------------- | ---------------------------------------------------------------------------- |
| FastAPI 後端(Python) | ❌ 無法取代,Budibase 後端為 Node.js Koa,不支援 Python AI 生態 |
| LangGraph Agent 狀態機 | ❌ 無等效功能,Budibase Agent 為線性 Automation 流程 |
| langchain-mcp-adapters | ❌ 無 MCP 支援 |
| llama.cpp server 直接推理 | ⚠️ 可透過 Custom Provider API 間接連接,Budibase 本體仍須 Docker |
| pgvector 向量搜尋 | ⚠️ 可作為外部 Vector DB 連接,Budibase 不內建向量運算 |
| nomic-embed-text Embedding | ⚠️ 需另外配置 Embedding Provider,Budibase 支援連接外部 Embedding 服務 |
| SSE 串流(token/sources/done) | ❌ 無法自訂 SSE 事件格式,Budibase 有自己的 Chat streaming 機制 |
| 多模態圖片分析(Qwen2.5-VL) | ❌ 無原生支援,需完全自行實作 |
| 離線內網完全隔離 | ❌ 自架 AI 功能仍需對外連線(budibase.app) |
| Windows 無 Docker 直接安裝 | ❌ 所有安裝方式皆依賴 Docker |
---
### 方案 2:lmstudio-ai/lms(LM Studio CLI + llmster)
- **GitHub**:https://github.com/lmstudio-ai/lms
- **Stars**:~4,400(CLI 工具);LM Studio 本體另計
- **分類**:D — LLM 推理服務(取代 llama.cpp server 的角色)
- **授權**:
- `lms` CLI:**MIT**(開源)
- LM Studio 本體(llmster / Desktop App):**專有閉源**,Element Labs, Inc. ToS
- **語言**:TypeScript 100%(CLI),本體為閉源二進位
- **組織**:Element Labs, Inc.(美國紐約,VC 資助),企業客戶含 Apple、Google、NVIDIA、Microsoft
#### 名詞釐清
> **重要**:GitHub 上的 `lmstudio-ai/lms` 是 LM Studio 的 **CLI 工具**,並非 LM Studio 本體。實際評估對象是整個 **LM Studio 生態**(lms CLI + llmster daemon + Desktop App)。
| 元件 | 說明 | 授權 |
| -------------- | ---------------------------------------------------------------- | -------- |
| `lms` CLI | 管理指令(`lms server start`、`lms load`、`lms chat`) | MIT |
| `llmster` | 無 GUI 的 headless daemon,可在 Windows Server 環境執行 | 閉源 |
| LM Studio App | 桌面應用程式,含 UI Chat、MCP Client、RAG、模型管理 | 閉源 |
#### 功能分析
| 功能面向 | LM Studio 能力 | 備註 |
| --------------------- | --------------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------- |
| **LLM 推理** | ✅ llama.cpp 作為原生推理引擎,支援 GGUF 格式,GPU offload 可設定 | 與 SA 文件 llama.cpp server 角色完全吻合 |
| **OpenAI-compatible API** | ✅ 提供 `/v1/chat/completions`、`/v1/embeddings`、`/v1/models` 等相容端點 | LangChain、LangGraph 可直接指向 |
| **Embedding** | ✅ 支援 Embedding 模型(`/v1/embeddings`),nomic-embed-text 等 GGUF 模型可直接載入 | 可取代 SA 文件獨立的 Embedding 服務 |
| **MCP** | ✅ **LM Studio 是 MCP Client**,可連接外部 MCP Server(如本案 CAD Tools MCP Server Port 8100) | **角色是 MCP 使用端,不是 MCP 提供框架**;MCP Server 仍需自行實作 |
| **RAG** | ⚠️ 內建「Chat with Documents」,完全離線;但為 App 內功能,不可程式化整合至 FastAPI/LangGraph 流程 | 無法對應 SA 文件的 pgvector 語意搜尋 + Rerank 架構 |
| **Agent** | ❌ 無 Agent 狀態機功能;僅提供 LLM Server,Agent 邏輯仍需 LangGraph 自行實作 | 不取代 LangGraph |
| **SKILLS** | ❌ 無等效機制 | — |
| **多模態(視覺)** | ✅ 支援載入視覺語言模型(如 Qwen2.5-VL GGUF),透過 API 傳入 base64 圖片 | FR-04 視覺分析可行 |
| **串流輸出** | ✅ OpenAI-compatible streaming,直接對應 LangChain `stream()` 方法 | SSE 格式自訂需在 FastAPI 層處理,LM Studio 僅提供 token stream |
| **模型管理** | ✅ `lms load`、`lms unload`、`lms ls`,JIT 自動載入,支援 CLI 自動化 | 比 llama.cpp 裸 server 更易管理多模型 |
| **Headless 部署** | ✅ Windows PowerShell 一行安裝 llmster:`irm https://lmstudio.ai/install.ps1 \| iex` | 不需要 Docker;可設定開機自動啟動 |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| -------- | ------- | ---------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ✅ **符合** | Windows `.exe` 安裝程式;llmster 透過 PowerShell 腳本安裝;**無需 Docker** |
| C2 Windows | ✅ **符合** | 官方支援 Windows x64/ARM64;llmster亦支援 Windows headless 模式 |
| C3 llama.cpp | ✅ **完全符合** | LM Studio 本體即以 llama.cpp 為推理引擎,GGUF 量化模型(Qwen2.5-VL-7B-Q4_K_M.gguf)直接匯入使用 |
| C4 功能完整 | ⚠️ **部分符合** | LLM + Embedding + MCP Client + 基礎 RAG 均有;但「Agent 邏輯」、「pgvector 向量庫」、「可程式化 RAG 流程」仍需保留 LangGraph + FastAPI |
| C5 低資源 | ✅ **符合** | 單一應用程式,資源消耗與裸 llama.cpp server 相當;可 JIT 按需載入/卸載模型 |
| C6 存續性 | ✅ **良好** | 商業化路線清晰,企業客戶群大(Apple、NVIDIA 等),積極開發;CLI 為 MIT;本體閉源但穩定 |
| C7 商用風險 | ⚠️ **中-高風險** | LM Studio 本體為**閉源專有軟體**,ToS 明訂「non-exclusive, non-transferable,僅限內部業務使用」;**不可用於 SaaS / 再散布**;未來可能調整企業授權策略 |
#### 架構整合評估
LM Studio 在 MEC-AI 架構中的最佳定位是「**取代 llama.cpp server**」,其餘層次維持不變:
```
【原始 SA 架構】
FastAPI(後端) → LangGraph Agent → llama.cpp server(裸 CLI)
【整合後架構】
FastAPI(後端) → LangGraph Agent → LM Studio / llmster(OpenAI API)
↕
(可選)LM Studio MCP Client
→ CAD Tools MCP Server(Port 8100)
```
| 取代場景 | 可行性 | 說明 |
| ------------------------------------- | -------------- | ---------------------------------------------------------------------------------------- |
| 取代 llama.cpp server(推理引擎) | ✅ **強烈建議** | 直接以 OpenAI-compatible API 對接 LangChain;比裸 llama.cpp 更易管理多模型 |
| 取代 Embedding 服務 | ✅ **可行** | 載入 nomic-embed-text.gguf 後呼叫 `/v1/embeddings`,完全取代獨立 Embedding 端點 |
| 取代 FastAPI 後端 | ❌ **不建議** | LM Studio 無 Agent 邏輯、無自訂 API 路由、無 pgvector 整合能力 |
| 取代 LangGraph Agent | ❌ **不建議** | LM Studio 僅是 LLM Server,無 Tool Calling 狀態機、無 Checkpoint 機制 |
| 取代 pgvector 向量庫 | ❌ **不建議** | 內建 RAG 為 App-level 功能,不提供可程式化 API 存取 |
| 補充 MCP 測試(Client 端) | ✅ **附加價值** | 開發期間可用 LM Studio GUI 快速測試 CAD Tools MCP Server 的工具呼叫是否正確 |
#### 授權風險重點提示
> ⚠️ **重要**:LM Studio ToS(2025-07-01 版)明訂以下限制,使用前須評估:
> - 授權為「**非排他、不可轉讓**」,僅限「個人/內部業務使用」
> - **禁止**作為 SaaS 或 Application Service Provider 對外提供服務
> - **禁止**修改、衍生、再散布軟體
> - Element Labs **可單方面終止授權**(需提前 10 天通知)
>
> 在「機構內網純內部部署,不對外提供服務」的前提下,目前使用應符合 ToS;但**長期需追蹤授權政策變更**。
#### 總評
| 向度 | 評分(5分制)| 說明 |
| ------------ | ------------ | ------------------------------------------------------- |
| 功能符合度 | ⭐⭐⭐⭐ (4/5) | LLM 推理 + Embedding + MCP Client + 視覺模型全部到位 |
| 部署便利性 | ⭐⭐⭐⭐⭐ (5/5) | Windows native 安裝,PowerShell 一行部署,無 Docker |
| 資源消耗 | ⭐⭐⭐⭐ (4/5) | 與 llama.cpp 裸 server 相近,JIT 載入更節省常態記憶體 |
| 公司存續性 | ⭐⭐⭐⭐ (4/5) | 商業成熟,企業客戶多,但閉源導致依賴風險 |
| 商用成本風險 | ⭐⭐ (2/5) | 閉源 ToS 有潛在限制,未來企業版收費可能性高 |
| **綜合推薦** | ✅ **建議作為 llama.cpp server 的強化替代方案** | |
**建議定位**:以 LM Studio(llmster headless 模式)**取代原 SA 架構中的 llama.cpp server**。LangGraph + FastAPI + pgvector 架構維持不變,僅將 LLM 推理端點從 `llama.cpp/llama-server.exe` 改為 `LM Studio OpenAI API(localhost:1234)`。此舉可獲得更友善的模型管理界面、Embedding API 整合、視覺模型支援,且完全符合 Windows 無 Docker 部署需求。
---
### 方案 3:nomic-ai/gpt4all
- **GitHub**:https://github.com/nomic-ai/gpt4all
- **Stars**:~77,200(截至 2025-03)
- **分類**:D — LLM 推理服務(取代 llama.cpp server 的角色)
- **授權**:**MIT**(完全開源,可商業使用,無需回饋授權)
- **語言**:C++ 52%、QML 30.3%、Python 7.6%
- **組織**:Nomic AI(Nomic, Inc.,美國,VC 資助)— Nomic Embed、Atlas 等資料分析產品
- **最後 Release**:v3.10.0(2025-02-25,截至評估約 13 個月前)
> **評估對象說明**:GPT4All 提供「Desktop App(GUI)」與「Python SDK」兩種使用方式。API Server 功能內建於 Desktop App,啟動後監聽 port 4891。本次評估以「API Server + Python SDK」兩種整合模式為主,而非 GUI 使用體驗。
#### 名詞釐清
| 元件 | 說明 | 授權 |
| ---------------- | ---------------------------------------------------------------------------- | ---- |
| Desktop App | Windows `.exe` 安裝,含 GUI、模型管理、LocalDocs RAG、內建 API Server | MIT |
| API Server | 內建於 Desktop App,監聽 port 4891,OpenAI-compatible `/v1/chat/completions` | MIT |
| Python SDK | `pip install gpt4all`,直接呼叫本地 GGUF(via llama.cpp) | MIT |
| LocalDocs | GUI-level 本地文件 RAG,使用 Nomic Embed 模型,**不可程式化存取** | MIT |
#### 功能分析
| 功能面向 | GPT4All 能力 | 備註 |
| ------------------------- | ----------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------- |
| **LLM 推理** | ✅ llama.cpp 為原生後端,支援 GGUF 格式;GPU offload 可設定 | 與 SA 文件 llama.cpp server 角色完全吻合 |
| **OpenAI-compatible API** | ✅ `/v1/chat/completions`、`/v1/completions`、`/v1/models`(port 4891) | LangChain/LangGraph 可直接指向;**需 Desktop App 先啟動才能使用** |
| **Embedding API** | ❌ **不提供 `/v1/embeddings` REST 端點** | ⚠️ **關鍵缺口**:無法取代 SA 文件中的 nomic-embed-text Embedding 服務 |
| **RAG(LocalDocs)** | ⚠️ 有本地 RAG(Nomic Embed 離線);但**只能透過 GUI 設定**,API response 含 `references` 欄位(唯讀) | 無法程式化整合至 FastAPI/LangGraph 流程;pgvector 架構仍須保留 |
| **MCP** | ❌ 完全無 MCP 支援(文件、程式碼、issue 均無相關記錄) | — |
| **Agent** | ❌ 無 Agent 狀態機功能 | Agent 邏輯仍需 LangGraph 自行實作 |
| **多模態(視覺)** | ⚠️ 理論上可載入 GGUF 視覺模型,但官方文件未明確說明視覺 API 格式 | FR-04 視覺分析有不確定性,不如 LM Studio 完整 |
| **串流輸出** | ✅ API Server 支援 streaming | SSE 格式自訂需在 FastAPI 層處理 |
| **Python SDK** | ✅ `pip install gpt4all`,可在 FastAPI 後端直接呼叫本地 GGUF | 可作為 llama.cpp Python binding 的替代;但降低 Server/Client 分離的靈活性 |
| **Headless 部署** | ⚠️ **API Server 需要 Desktop App 執行**,不支援純 CLI/服務化部署;Python SDK 可替代但功能受限 | 不適合 Server 端無頭部署,與 LM Studio llmster 有明顯差距 |
| **LangChain 整合** | ✅ 官方文件提供 LangChain 整合範例 | `ChatOpenAI(base_url="http://localhost:4891/v1")` 即可使用 |
| **模型管理** | ✅ Desktop App UI 提供模型下載/切換;支援直接匯入本地 GGUF | 離線匯入需手動操作 UI;無 CLI 自動化 load/unload 指令 |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| -------------- | ----------------- | --------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ✅ **符合** | Windows `.exe` 原生安裝,無需 Docker;Python SDK 亦可 `pip install gpt4all` 獨立使用 |
| C2 Windows | ✅ **符合** | 官方支援 Windows x64/ARM64,為主要支援平台之一 |
| C3 llama.cpp | ✅ **完全符合** | 以 llama.cpp C++ 函式庫作為推理後端,GGUF 直接載入,量化格式完整支援 |
| C4 功能完整 | ⚠️ **部分符合** | LLM 推理完整;但**無 Embedding API、API 模式需 Desktop 常駐、LocalDocs 不可程式化、無 MCP** |
| C5 低資源 | ✅ **符合** | Desktop App 單一可執行檔,LLM 資源消耗與裸 llama.cpp 相近;基礎 overhead 低 |
| C6 存續性 | ⚠️ **中風險** | 77.2k Stars 社群龐大,但最後 Release(v3.10.0)距評估已 13 個月;Nomic AI 重心已轉移至 Atlas/Embed 商業產品 |
| C7 商用風險 | ✅ **低風險** | **MIT 授權**,明示可商業使用、無限制再散布;完全開源,無閉源依賴,授權為本次評估中最乾淨的方案 |
#### 架構整合評估
```
【整合後架構(GPT4All API Server 模式)】
FastAPI(後端) → LangGraph Agent → GPT4All Desktop App(API port 4891)
↕(僅 Chat Completion)
⚠️ 缺:Embedding API → 仍需獨立 Embedding 服務
❌ 缺:MCP Client 支援
❌ 缺:Headless 無頭服務化
【替代整合(Python SDK 模式)】
FastAPI(後端,同 process) ← gpt4all Python SDK → 本地 GGUF
⚠️ 仍缺 Embedding API;Server/Client 邊界模糊
```
| 取代場景 | 可行性 | 說明 |
| -------------------------------- | -------------- | ------------------------------------------------------------------------------------------- |
| 取代 llama.cpp server(推理引擎)| ✅ **可行** | API Server 或 Python SDK 均可取代;API 模式需 Desktop App 持續執行 |
| 取代 Embedding 服務 | ❌ **不可行** | 無 `/v1/embeddings` API;需另外部署 `nomic-embed-text` Python 服務 |
| 取代 FastAPI 後端 | ❌ **不建議** | 無 Agent 邏輯、無自訂路由、無 pgvector 整合 |
| 取代 LangGraph Agent | ❌ **不建議** | 純 LLM 服務,無 Tool Calling 狀態機 |
| 取代 pgvector 向量庫 | ❌ **不建議** | LocalDocs 不可程式化存取,無法替代向量資料庫流程 |
| 作為 LM Studio 授權備援 | ✅ **條件可行** | 若 LM Studio ToS 成問題,可切換;需額外補齊 Embedding 服務(`pip install nomic`) |
#### GPT4All vs LM Studio 直接比較
| 面向 | GPT4All | LM Studio / llmster |
| ------------------- | ------------------------------- | ------------------------------ |
| **授權** | ✅ MIT(完全開源) | ⚠️ 本體閉源,Element Labs ToS |
| **Embedding API** | ❌ 無 | ✅ `/v1/embeddings` |
| **MCP Client** | ❌ 無 | ✅ 內建 MCP Client |
| **Headless 部署** | ❌ 需 Desktop App 執行 | ✅ llmster daemon 全自動 |
| **視覺模型 API** | ⚠️ 支援不明確 | ✅ 明確支援圖片 base64 輸入 |
| **CLI 自動化** | ❌ 無模型 load/unload CLI | ✅ `lms load / unload / ls` |
| **開發活躍度** | ⚠️ 慢(最後 release ~13 個月前) | ✅ 快(持續更新) |
| **社群規模** | ✅ 大(77.2k stars) | ⚠️ 中(lms: 4.4k stars) |
| **SA 整合得分** | ⚠️ 中(補齊 Embedding 後可用) | ✅ 高(整合全面) |
#### 總評
| 向度 | 評分(5分制) | 說明 |
| ------------ | -------------- | ----------------------------------------------------------------------------- |
| 功能符合度 | ⭐⭐⭐ (3/5) | LLM 推理可行,但缺 Embedding API 是硬傷;LocalDocs 不可程式化;無 MCP |
| 部署便利性 | ⭐⭐⭐ (3/5) | Windows 原生安裝無 Docker;但 API 模式需 Desktop App 常駐,不如 llmster 乾淨 |
| 資源消耗 | ⭐⭐⭐⭐ (4/5) | 輕量化,與 llama.cpp 裸 server 相近 |
| 公司存續性 | ⭐⭐⭐ (3/5) | 社群龐大但開發趨緩;Nomic AI 商業重心已轉移 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源,商用零風險,本次評估授權最乾淨的方案 |
| **綜合推薦** | ⚠️ **可作為 LM Studio 授權備援方案;主要缺口為 Embedding API** | |
**建議定位**:GPT4All 的授權(MIT)優於 LM Studio,但功能整合完整度明顯較低——最關鍵的缺口是**無 Embedding API**,導致 SA 架構的 nomic-embed-text Embedding 服務無法由 GPT4All 統一提供。
推薦策略:
1. **主要方案使用 LM Studio**(llmster headless 模式)— 功能整合全面
2. 若 LM Studio ToS 在未來成為授權問題,可切換至 **GPT4All Python SDK(in-process)+ 獨立 `nomic` Python Embedding 服務**
3. 切換成本低(LangChain 端點修改),但需額外補齊 `pip install nomic` + Embedding FastAPI 封裝
---
### 方案 4:janhq/jan
- **GitHub**:https://github.com/janhq/jan
- **Stars**:~41,200(截至 2025-03)
- **分類**:D — LLM 推理服務(取代 llama.cpp server 的角色)
- **授權**:**Apache 2.0**(完全開源,可商業使用;比 MIT 更適合企業,明確專利條款)
- **語言**:TypeScript 72.4%、Rust 21.1%、Python 1.9%
- **組織**:Jan.ai(Open Superintelligence,早期 VC 資助,越南/美國工程團隊)
- **最後 Release**:v0.7.8(2026-03-11,**積極開發中**,最新提交距今 18 小時)
- **技術棧**:Tauri(Rust 桌面框架)+ llama.cpp(推理引擎)+ MLX(macOS Apple Silicon)
> **評估定位說明**:Jan 同時提供「Desktop App(GUI)」與「CLI(`jan serve`)」兩種模式。CLI 於 v0.7.8(2026-03)首次發布,提供真正的 headless 部署能力。本次評估以「CLI + API Server 整合」模式為主。
#### 名詞釐清
| 元件 | 說明 | 授權 |
| ----------------- | --------------------------------------------------------------------------------------------- | ----------- |
| Desktop App | Windows `.exe`(Microsoft Store 或直接下載)、macOS `.dmg`、Linux `.deb`/`.AppImage` | Apache 2.0 |
| CLI(`jan serve`)| 隨 Desktop App 安裝,`jan serve MODEL_ID --detach` 可無 GUI 背景執行;port 6767 | Apache 2.0 |
| Local API Server | 透過 Desktop App 設定頁面啟動;port 1337,OpenAI-compatible | Apache 2.0 |
| MCP Client | Jan 是 MCP Host,可連接外部 MCP Server | Apache 2.0 |
| OpenClaw Agent | 內建自主 Agent(檔案操作、行事曆、WhatsApp/Discord/Slack) | Apache 2.0 |
#### 功能分析
| 功能面向 | Jan 能力 | 備註 |
| ------------------------- | ----------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------- |
| **LLM 推理** | ✅ llama.cpp 為原生後端,支援 GGUF 格式;MLX 引擎支援 macOS Apple Silicon | 與 SA 文件 llama.cpp server 角色完全吻合 |
| **OpenAI-compatible API** | ✅ `/v1/chat/completions`、`/v1/completions`、`/v1/models`(CLI port 6767 / Desktop port 1337) | LangChain/LangGraph `ChatOpenAI(base_url=...)` 直接指向 |
| **Embedding API** | ✅ **`jan serve MODEL_ID --embedding` 旗標**,將 Embedding 模型以 API 形式暴露 | ⭐ **GPT4All 缺少的關鍵功能,Jan 具備**;可直接取代 nomic-embed-text 推理端點 |
| **MCP Client** | ✅ Jan 是 MCP Host,可在設定頁面新增任意 MCP Server(支援 stdio/SSE 連線) | 可直接連接本案 CAD Tools MCP Server(Port 8100) |
| **RAG** | ⚠️ File Upload 功能(上傳檔案至對話);但無獨立 RAG 知識庫 API;pgvector 架構仍需保留 | 不可程式化取代 pgvector;但 Embedding API 可強化 RAG 流程 |
| **Agent** | ⚠️ OpenClaw 為內建自主 Agent(動作導向,可讀檔、管理行事曆、連接 IM);但非 LangGraph 可替換的 Python Agent 框架 | 對 MEC-AI 架構而言:API Server 是主要整合點;Agent 功能屬附加項 |
| **視覺多模態** | ✅ 提供 Jan-v2-VL(視覺語言模型),並可載入外部視覺 GGUF(如 Qwen2.5-VL) | FR-04 視覺分析可行,與 LM Studio 相當 |
| **串流輸出** | ✅ OpenAI-compatible streaming | SSE 格式自訂需在 FastAPI 層處理 |
| **CLI headless 部署** | ✅ `jan serve MODEL_ID --detach`(背景執行,無需 GUI);`--port` 自訂埠號;`--n-gpu-layers` GPU 配置 | CLI 安裝路徑:`~/.local/bin/jan`(macOS/Linux),Windows 路徑有特殊處理(見下方注意) |
| **Windows CLI 已知問題** | ⚠️ 官方 Troubleshooting 記載:**Windows 上 `jan` 指令可能開啟 Desktop App 而非 CLI** | ⚠️ v0.7.8 發布才 2 週,Windows headless 穩定性待確認;需等待後續修復 |
| **模型管理** | ✅ CLI:`jan models list`、`jan models load`;Desktop App Hub 下載模型;兩者共用同一資料夾 | HuggingFace 倉庫可直接當 MODEL_ID 指定(`jan serve unsloth/Qwen3.5-9B-GGUF`) |
| **LangChain 整合** | ✅ OpenAI-compatible API,`ChatOpenAI(base_url="http://localhost:6767/v1")` 直接使用 | — |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| -------------- | ----------------- | -------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ✅ **符合** | Windows `.exe` 原生安裝(Microsoft Store 或直接下載),無需 Docker |
| C2 Windows | ✅ **符合** | 官方支援 Windows 10+(NVIDIA/AMD/Intel Arc GPU 加速);Microsoft Store 可直接安裝 |
| C3 llama.cpp | ✅ **完全符合** | llama.cpp 為原生推理引擎,GGUF 直接載入,量化格式(Q4_K_M 等)完整支援 |
| C4 功能完整 | ✅ **高度符合** | LLM 推理 + **Embedding API**(`--embedding`)+ MCP Client + 視覺模型 + CLI headless + 串流輸出均到位;RAG 知識庫仍需 pgvector 保留|
| C5 低資源 | ✅ **符合** | Tauri 輕量桌面框架,資源 overhead 低;CLI 模式無 GUI,與裸 llama.cpp server 資源消耗相近 |
| C6 存續性 | ✅ **良好** | 41.2k Stars,138 位貢獻者,**最後 Release v0.7.8 為 2026-03-11(距評估約 2 週)**,活躍開發;開源組織架構穩定 |
| C7 商用風險 | ✅ **低風險** | **Apache 2.0 授權**,明確允許商業使用、修改、散布;含專利授權條款(比 MIT 更完整);完全開源,無閉源依賴 |
> ⚠️ **Windows CLI 注意事項(v0.7.8)**:官方 Troubleshooting 明確記載 Windows 環境下 `jan` 指令可能開啟 Desktop App 而非執行 CLI。CLI 功能於 v0.7.8(2026-03-11)才首次發布,Windows headless 穩定性尚待社群驗證。建議在正式部署前先做環境測試。
#### 架構整合評估
Jan 在 MEC-AI 架構中的最佳定位與 LM Studio 相同:**取代 llama.cpp server**,並可同時取代獨立 Embedding 服務:
```
【整合後架構(Jan CLI 模式)】
FastAPI(後端) → LangGraph Agent → jan serve Qwen2.5-VL(port 6767)
↕ /v1/chat/completions(LLM Completion)
FastAPI(後端) → pgvector RAG → jan serve nomic-embed-text --embedding
↕ /v1/embeddings(Embedding 向量化)
Jan(MCP Host) → CAD Tools MCP Server(Port 8100)
↕ MCP stdio/SSE 連線
```
| 取代場景 | 可行性 | 說明 |
| ------------------------------------- | -------------- | ---------------------------------------------------------------------------------------- |
| 取代 llama.cpp server(推理引擎) | ✅ **強烈建議** | `jan serve Qwen2.5-VL` 直接以 OpenAI-compatible API 對接 LangChain;CLI headless |
| 取代 Embedding 服務 | ✅ **可行** | `jan serve nomic-embed-text --embedding` 後呼叫 `/v1/embeddings`,完全取代獨立端點 |
| 取代 FastAPI 後端 | ❌ **不建議** | Jan 無 Agent 狀態機、無自訂 Python API 路由、無 pgvector 整合能力 |
| 取代 LangGraph Agent | ❌ **不建議** | OpenClaw 為 App-level Agent,無法以程式化方式整合至 FastAPI LangGraph 流程 |
| 取代 pgvector 向量庫 | ❌ **不建議** | File Upload 功能為對話層級,無獨立可程式化 RAG API |
| 補充 MCP 測試(Client 端) | ✅ **附加價值** | 可在開發期間用 Jan Desktop App 快速測試 CAD Tools MCP Server 工具呼叫是否正常 |
#### Jan vs LM Studio vs GPT4All 三方比較
| 面向 | Jan(janhq/jan) | LM Studio / llmster | GPT4All |
| ----------------------- | ----------------------- | ------------------------- | --------------------------- |
| **授權** | ✅ Apache 2.0(開源) | ⚠️ 本體閉源,ToS 限制 | ✅ MIT(開源) |
| **Embedding API** | ✅ `--embedding` 旗標 | ✅ `/v1/embeddings` | ❌ 無 |
| **MCP Client** | ✅ MCP Host | ✅ 內建 MCP Client | ❌ 無 |
| **CLI Headless** | ✅ `jan serve --detach` | ✅ llmster daemon | ❌ 需 Desktop App |
| **視覺模型 API** | ✅ Jan-v2-VL + 外部 GGUF| ✅ 明確支援 | ⚠️ 不明確 |
| **Windows CLI 穩定度** | ⚠️ v0.7.8 新功能,待驗證 | ✅ 成熟穩定 | —(CLI 不適用) |
| **開發活躍度** | ✅ 快(每週更新) | ✅ 快(持續更新) | ⚠️ 慢(~13 個月無 release) |
| **Stars** | ✅ 41.2k | ⚠️ lms: 4.4k | ✅ 77.2k |
| **SA 整合得分** | ✅ 高(功能最全面) | ✅ 高(但閉源風險) | ⚠️ 中(缺 Embedding) |
#### 總評
| 向度 | 評分(5分制) | 說明 |
| ------------ | -------------- | --------------------------------------------------------------------------------------------- |
| 功能符合度 | ⭐⭐⭐⭐⭐ (5/5) | LLM + Embedding API + MCP Client + CLI headless + 視覺模型全部到位;三方比較中功能最完整 |
| 部署便利性 | ⭐⭐⭐⭐ (4/5) | Windows native 安裝,CLI headless 可用;但 Windows CLI 為新功能(v0.7.8),穩定性需驗證 |
| 資源消耗 | ⭐⭐⭐⭐ (4/5) | Tauri 輕量框架,與 llama.cpp 裸 server 資源相近 |
| 公司存續性 | ⭐⭐⭐⭐ (4/5) | 41.2k stars,積極開發,Apache 2.0 確保長期可用性;唯組織規模較小 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | Apache 2.0 完全開源,含專利授權,商用零風險;本次評估中授權最完整的方案 |
| **綜合推薦** | ✅ **建議作為 LM Studio 的授權優先替代方案;待 Windows CLI 穩定性確認後可升為首選** | |
**建議定位**:Jan 在功能面幾乎與 LM Studio 對等(LLM + Embedding + MCP + CLI headless),但授權(Apache 2.0)遠優於 LM Studio(閉源 ToS)與 GPT4All(MIT,缺 Embedding)。
推薦策略:
1. **短期**:以 LM Studio 作為主要推理服務(CLI 穩定成熟);同時在測試環境部署 Jan CLI 驗證 Windows headless 穩定性
2. **中期(Windows CLI 穩定後)**:將 Jan 升為首選推理服務,以 `jan serve Qwen2.5-VL --detach` 取代 LM Studio;`jan serve nomic-embed-text --embedding` 統一管理 LLM + Embedding 兩個端點
3. **長期**:Jan 平台路線清晰(Jan Platform 基礎設施層),授權潔淨,適合作為機構內部長期依賴的推理服務基礎
---
### 方案 5:langflow-ai/langflow
- **GitHub**:https://github.com/langflow-ai/langflow
- **Stars**:~146,000(截至 2026-03,GitHub 上 AI 類第三高 stars)
- **分類**:B — Agent 框架(視覺化 Agent 編排平台,可取代 LangGraph 層)
- **授權**:**MIT**(完全開源,可商業使用)
- **語言**:Python 56.2%、TypeScript 25.9%、JavaScript 17.1%
- **組織**:Langflow AI(曾隸屬 DataStax,現獨立;商業支援版可透過 DataStax Astra)
- **最後 Release**:v1.8.2(2026-03-21,距評估約 **2 天**)
- **技術棧**:FastAPI 後端 + React Flow 前端(可視化節點編輯器)+ SQLite/PostgreSQL 持久化
> **定位重點**:Langflow **不是** LLM 推理服務,它是視覺化的 Agent/Workflow 編排平台。需要配合外部 LLM 端點(LM Studio、Jan、llama.cpp server)使用。與 SA 架構的對應關係是:Langflow = 視覺化版的 LangGraph + LangChain + langchain-mcp-adapters。
#### 名詞釐清
| 元件 | 說明 | 授權 |
| ---------------------- | ----------------------------------------------------------------------------------------------------- | ---- |
| Langflow Desktop | Windows `.exe`(或 macOS)桌面應用,含自動依賴管理,無需手動 Python 環境 | MIT |
| Langflow OSS(Python) | `uv pip install langflow` + `uv run langflow run`,啟動後存取 `http://127.0.0.1:7860` | MIT |
| Langflow API Server | FastAPI 後端,自動暴露每個 Flow 的 REST endpoint(`/api/v1/run/{flow_id}`) | MIT |
| MCP Server | Langflow 可將 Flow 暴露為 MCP 工具,供任何 MCP Client 呼叫(streamable HTTP / SSE) | MIT |
| MCP Client | Langflow Flow 中可連接外部 MCP Server,在 Flow 節點中使用外部工具 | MIT |
#### 功能分析
| 功能面向 | Langflow 能力 | 備註(對應 SA 架構層次) |
| ------------------------- | ----------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------- |
| **視覺化 Flow 編輯** | ✅ 拖拉式節點編輯器,支援 LLM、Prompt、RAG、Agent、Tool 等元件 | 取代 LangGraph Python 程式碼,以視覺方式設計 Agent 邏輯 |
| **Agent 編排** | ✅ 多 Agent 協同(Multi-agent Orchestration)、對話管理、工具呼叫、狀態追蹤 | 對應 SA 的 LangGraph Agent 層 |
| **RAG 內建元件** | ✅ 內建 Vector Store(支援 pgvector、Chroma、FAISS)、Embedding、Document Loader、Retrieval 節點 | 可在 Flow 視覺化設計整個 RAG 流程(文件匯入、向量更新、語意搜尋) |
| **LLM 連接** | ⚠️ **不自帶推理引擎**;透過 OpenAI-compatible API 連接外部 LLM(LM Studio、Jan、llama.cpp server 均可) | C3 llama.cpp:條件符合(須外部推理服務);LM Studio、Jan 提供端點後可直接整合 |
| **MCP Server** | ✅ 將每個 Langflow Flow 自動暴露為 MCP 工具,任何 MCP Client 可呼叫 | ⭐ 關鍵差異:Langflow 的 MCP 角色是 **被呼叫方**(MCP Provider),可把 CAD 問答流程包成 MCP 工具|
| **MCP Client** | ✅ Flow 內部可連接外部 MCP Server,在編排邏輯中使用外部工具 | 可連接外部 CAD Tools MCP Server(Port 8100),直接在 Flow 節點中呼叫 |
| **REST API 輸出** | ✅ 每個 Flow 自動生成 REST endpoint,可嵌入任何應用(含 FastAPI、React 等) | SA FastAPI 後端可呼叫 Langflow REST API 執行 Flow,實現混合架構 |
| **串流輸出** | ✅ 支援 Streaming 回應(SSE),可透過 REST API 串流至前端 | SSE 格式可透過 Langflow streaming endpoint 或 FastAPI 中間層處理 |
| **多模態(視覺)** | ⚠️ 理論上可連接視覺 LLM;但視覺 API(base64 圖片輸入)的 Flow 節點支援取決於所連接的 LLM 端點 | 需自行在 Flow 中設計圖片處理節點 |
| **無 Docker 安裝** | ✅ Langflow Desktop(Windows `.exe`)或 `uv pip install langflow`(無 Docker) | C1 完全符合 |
| **Windows 支援** | ✅ Windows Python 3.10–3.12;Langflow Desktop 直接安裝;官方有 Windows Playwright 測試 CI | C2 完全符合;Windows 限制 Python ≤ 3.12(Linux/Mac 支援 3.13) |
| **資源消耗** | ⚠️ 最低 Dual-core CPU + 2GB RAM,建議 Multi-core + 4GB RAM;比 LM Studio 等推理服務更重(含 Web UI 服務) | C5 中度資源;OA 筆電可運行但有額外 overhead |
| **LangChain 整合** | ✅ Langflow 本身即以 LangChain 元件為基礎構建;所有 LangChain 工具、記憶體、Retriever 均可作為節點使用 | — |
| **可觀測性** | ✅ 整合 LangSmith、LangFuse;內建 Playground 逐步執行檢視 | 開發除錯能力強 |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| -------------- | ----------------- | -------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ✅ **符合** | Langflow Desktop(Windows 無 Docker 安裝)或 `uv pip install langflow`;Docker 為可選項,非必須 |
| C2 Windows | ✅ **符合** | Desktop App 支援 Windows;Python 套件支援 Windows 3.10–3.12;有 Windows CI 測試 |
| C3 llama.cpp | ⚠️ **條件符合** | Langflow 不直接執行 llama.cpp;透過 OpenAI-compatible API 連接外部 llama.cpp server(或 LM Studio/Jan)即可整合 |
| C4 功能完整 | ✅ **高度符合** | 視覺化 Agent 編排 + 內建 RAG + MCP Server + MCP Client + REST API 輸出,功能比 LangGraph 純程式實作更豐富 |
| C5 低資源 | ⚠️ **中度符合** | 最低 2GB RAM、建議 4GB+;比裸 LLM 推理服務更重(有 FastAPI + React 服務);OA 筆電可運行,但需考慮與 LLM 推理服務的總資源占用 |
| C6 存續性 | ✅ **優良** | 146k stars(AI 類最高之一),344 位貢獻者,v1.8.2 發布距今 2 天,極活躍;企業商業支援透過 DataStax Astra 提供 |
| C7 商用風險 | ✅ **低風險** | MIT 授權,完全開源商用;無閉源依賴;DataStax 商業版(Astra Langflow)為付費加值,不影響 OSS 使用 |
#### 架構整合評估
Langflow 在 MEC-AI 架構中可以兩種模式整合:
**模式 A:Langflow 取代 LangGraph(完整替換 Agent 層)**
```
【整合後架構 A】
React 前端 ─→ FastAPI(自訂 SSE 串流Layer)─→ Langflow REST API(Flow 執行)
↕
LangGraph 被視覺化 Flow 取代
↕
LM Studio / Jan(OpenAI API,外部推理服務)
↕
pgvector(Langflow 透過 Vector Store 節點連接)
↕
CAD Tools MCP Server(Langflow MCP Client 節點)
```
**模式 B:Langflow 作為附加的 Flow 服務層(混合架構)**
```
【整合後架構 B】
React 前端 ─→ FastAPI(主 Agent 層,保留 LangGraph)
↕ 處理複雜自訂邏輯
Langflow(作為特定 Flow 的後台服務,FastAPI 呼叫其 REST API)
↕
LM Studio / Jan(共用推理服務)
↕ (Langflow 也作為 MCP Server)
任何外部 MCP Client 呼叫 Langflow Flow
```
| 取代場景 | 可行性 | 說明 |
| ------------------------------------- | -------------- | ---------------------------------------------------------------------------------------------- |
| 取代 LangGraph(Agent 邏輯層) | ⚠️ **條件可行** | 標準 RAG + Tool Calling 流程可完整視覺化;但複雜自訂 SSE 事件(token/sources/done 格式)需透過 FastAPI 封裝|
| 取代 FastAPI 後端 | ❌ **不建議** | Langflow 可暴露 Flow REST API,但自訂 SSE 串流格式、SA 文件的 audit_log 寫入等需求難以在 Flow 節點中精確控制|
| 取代 llama.cpp server | ❌ **不可行** | Langflow 無推理能力,仍需 LM Studio / Jan 作為 LLM 端點 |
| 作為 MCP Server(暴露 Flow 為工具) | ✅ **高附加價值**| 可將「CAD 指令問答 Flow」包裝成 MCP 工具,讓任何 MCP Client(Claude Desktop、Jan 等)直接呼叫 |
| 取代 pgvector RAG 流程 | ⚠️ **條件可行** | Langflow 的 Vector Store 節點支援 pgvector,可視覺化設計文件匯入→向量化→查詢流程 |
| 作為開發/測試工具 | ✅ **強烈建議** | Playground 逐步執行、Flow 視覺化除錯,可大幅加速 Agent 邏輯開發迭代效率 |
#### Langflow vs LangGraph(程式碼)比較
| 面向 | Langflow(視覺化) | LangGraph(程式碼,SA 現有架構) |
| ----------------------- | ----------------------------------------------- | ---------------------------------------------- |
| **開發方式** | 拖拉節點,快速迭代 | Python 程式碼,完全自訂 |
| **SSE 串流控制** | ⚠️ 受限於 Langflow streaming 格式 | ✅ 完全自訂 SSE events(token/sources/done) |
| **多模態圖片處理** | ⚠️ 節點支援有限 | ✅ 可精確控制 base64 encoding 流程 |
| **Checkpoint(SQLite)**| ⚠️ 有自己的持久化機制,與 AsyncSqliteSaver 不同 | ✅ LangGraph AsyncSqliteSaver 完整支援 |
| **MCP 整合** | ✅ 內建 MCP Server + Client 節點 | ✅ langchain-mcp-adapters 程式化整合 |
| **RAG 設計** | ✅ 視覺化 Vector Store + Retriever 節點 | ✅ 程式化 pgvector + LangChain Retriever |
| **維護成本** | ⚠️ Flow JSON 版本管理複雜度 | ✅ Git 版本控制,與現有工程流程一致 |
| **學習曲線** | ✅ 低(視覺化直觀) | ⚠️ 高(需要 Python + LangGraph 知識) |
#### 總評
| 向度 | 評分(5分制) | 說明 |
| ------------ | -------------- | ------------------------------------------------------------------------------------------------- |
| 功能符合度 | ⭐⭐⭐⭐ (4/5) | Agent 編排、RAG、MCP 雙向(Server+Client)均強;LLM 推理需外部服務;複雜 SSE 格式需 FastAPI 封裝 |
| 部署便利性 | ⭐⭐⭐⭐ (4/5) | Desktop App 或 `pip install` 一行安裝,無 Docker;啟動後有 Web UI |
| 資源消耗 | ⭐⭐⭐ (3/5) | FastAPI + React 服務有額外 overhead(建議 4GB RAM);與 LLM 推理服務共存時需規劃資源 |
| 公司存續性 | ⭐⭐⭐⭐⭐ (5/5) | 146k stars,2天前發布新版,社群與商業支援俱佳 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源,商用零風險 |
| **綜合推薦** | ⚠️ **條件建議:適合用於快速迭代 Agent 邏輯開發與測試;標準 RAG Flow 可取代 LangGraph;精密 SSE/多模態需求仍建議保留 LangGraph** | |
**建議定位**:
Langflow 最適合 MEC-AI 的**兩個場景**:
1. **開發/測試加速**:用 Langflow Playground 快速驗證 Agent 邏輯(RAG 流程、工具呼叫),縮短 LangGraph 程式碼的開發迭代週期。
2. **MCP Server 輸出**:將 CAD 問答、知識查詢等功能打包成 Langflow Flow,對外暴露為 MCP Server,供其他 MCP Client(如 Claude Desktop、Jan App)直接調用,擴大工具生態。
若計畫以 Langflow 完整取代 LangGraph,需事先確認:
- SA 文件的三段 SSE 事件格式(`token` / `sources` / `done`)可透過 FastAPI Proxy 層封裝 Langflow 串流輸出
- LangGraph `AsyncSqliteSaver` 的對話 Checkpoint 功能可改為 Langflow 的對話持久化機制
- Windows OA 筆電同時運行 Langflow 服務(port 7860)+ LLM 推理服務(port 1234/6767)的資源是否充足
---
### 方案 6:danny-avila/LibreChat
- **GitHub**:https://github.com/danny-avila/LibreChat
- **Stars**:34,800+(截至評估日 2026-03-23)
- **分類**:A — 全棧 AI 聊天平台(取代 React 前端 + FastAPI 使用者管理層,附加多用戶 Chat 前台)
- **授權**:MIT
- **語言**:TypeScript 69.5%、JavaScript 29.4%
- **最新版本**:v0.8.4(2026-03-21,距評估 2 天)
- **貢獻者**:360 位
- **官網**:https://librechat.ai
- **核心定位**:自架 ChatGPT 替代方案;提供完整 Web UI + 多 LLM Provider 管理 + Agents(no-code) + MCP Client + (選配) RAG + 多用戶認證
#### 元件解析
| 元件 | 說明 | 是否必要 |
| ---- | ---- | -------- |
| Node.js API 服務 | Express.js REST backend,port 3080 | ✅ 必要 |
| React Web UI | 完整聊天介面,Vite 建置,port 3080 | ✅ 必要 |
| MongoDB | 使用者資料、對話紀錄、Agent 設定儲存 | ✅ 必要 |
| `librechat.yaml` | 所有 LLM endpoint、MCP Server、功能旗標設定 | ✅ 必要 |
| MeiliSearch | 對話歷史全文搜尋 | ⚠️ 選配 |
| RAG API | 獨立 Python FastAPI repo(`rag_api`),向量語意搜尋 | ⚠️ 選配 |
#### 安裝方式
| 方式 | 需 Docker | 外部依賴 | 難度 |
| ---- | --------- | -------- | ---- |
| **Docker Compose(推薦)** | ✅ 需要 | 全部自動(MongoDB + MeiliSearch + RAG API + Vector DB)| 低 |
| **npm(無 Docker)** | ❌ 不需要 | **MongoDB Community Server**(可安裝為 Windows 服務)| 中 |
| Helm(Kubernetes) | Kubernetes | 全部外部服務 | 高 |
**npm 安裝步驟(Windows,無 Docker)**:
```bash
git clone https://github.com/danny-avila/LibreChat.git
cd LibreChat
copy .env.example .env
# 編輯 .env,設定 MONGO_URI=mongodb://localhost:27017/LibreChat
npm ci
npm run frontend
npm run backend
# 瀏覽器開啟 http://localhost:3080/
```
> ℹ️ **MeiliSearch 為選配**:不安裝 MeiliSearch 僅影響對話歷史全文搜尋功能,核心聊天功能不受影響。
> MongoDB Community Server 可於 Windows 上安裝為系統服務,無需 Docker。
#### LLM 連接方式
LibreChat 本身**不提供 LLM 推理**,透過 `librechat.yaml` 連接各種 OpenAI-compatible Provider:
```yaml
endpoints:
custom:
- name: "Jan(本地 llama.cpp)"
apiKey: "user_provided"
baseURL: "http://localhost:1337/v1"
models:
default: ["Qwen2.5-VL-7B-Q4_K_M"]
- name: "LM Studio"
apiKey: "user_provided"
baseURL: "http://localhost:1234/v1"
models:
default: ["qwen2.5-vl-7b-instruct"]
```
| LLM 後端 | 支援狀況 | 說明 |
| -------- | -------- | ---- |
| Jan(`jan serve`) | ✅ | 透過 OpenAI-compatible API,間接使用 llama.cpp Qwen2.5-VL |
| LM Studio(`lms server start`) | ✅ | 透過 OpenAI-compatible API,支援所有 llama.cpp GGUF |
| Ollama | ✅ | 透過 OpenAI-compatible proxy |
| OpenAI / Claude / Gemini(雲端) | ✅ | 需對外網路,內網離線環境不適用 |
| **裸 llama.cpp server(直連)** | ✅ | llama.cpp 本身即提供 OpenAI-compatible API |
#### Agents 功能詳解
LibreChat Agents ≠ LangGraph Agent,定位更接近 **ChatGPT Custom GPTs / OpenAI Assistants API**:
| 面向 | LibreChat Agents | LangGraph(SA 現有架構) |
| ---- | ---------------- | ----------------------- |
| 建立方式 | No-code UI Builder(拖拉設定)| Python 程式碼,完全自訂 |
| 定位 | 預定義 AI 助理,固定能力組合 | 可程式化狀態機,動態邏輯 |
| MCP 工具 | ✅ MCP Client(在 Agent 中使用 MCP Server 工具)| ✅ langchain-mcp-adapters |
| RAG | ✅ File Search(需額外部署 RAG API)| ✅ pgvector,程式化控制 |
| SSE 事件格式 | ⚠️ LibreChat 自訂格式,與 SA 文件三段格式(token/sources/done)不同 | ✅ 完全自訂 |
| Checkpoint / 持久化 | ✅ MongoDB 對話紀錄 | ✅ AsyncSqliteSaver(SQLite)|
| Code Interpreter | ⚠️ **需訂閱 code.librechat.ai 雲端付費 API** | 不適用 |
| Agent Chain | ✅ Mixture-of-Agents(beta,最多 10 個 Agent)| ✅ Multi-agent subgraph |
| Actions(OpenAPI tools)| ✅ 從 OpenAPI Spec 動態建立工具 | 需自行實作 |
| Deferred Tools | ✅ 大量 MCP 工具時按需載入,節省 context window | 不適用 |
> ⚠️ **Code Interpreter 為雲端付費服務**:需訂閱 [code.librechat.ai](https://code.librechat.ai/pricing),**非本地執行**,內網離線環境無法使用。
#### MCP 整合方式
LibreChat 為 **MCP Client**(不是 MCP Server)。在 `librechat.yaml` 中設定 MCP Server 連接:
```yaml
mcpServers:
cad-tools:
type: stdio
command: python
args: ["-m", "cad_mcp_server"]
env:
CAD_DATA_PATH: "C:\\mec\\cad_data"
```
- Agent Builder UI 中點選「Add Tools」→ 選擇 MCP Server → 指定可用工具
- **可直接整合 SA 文件 CAD Tools MCP Server(Port 8100)**,LibreChat Agent 可使用 `cad_command_query`、`cad_shortcut_lookup`
- Deferred Tools 機制:工具數量多時,按需載入至 LLM context,避免消耗過多 token
#### 多用戶認證
| 功能 | 支援狀況 |
| ---- | -------- |
| Email + Password | ✅ |
| OAuth2(GitHub / Google 等) | ✅ |
| LDAP / Active Directory | ✅(企業內網適合)|
| Agent 權限(ACL)| ✅ OWNER / EDITOR / VIEWER(v0.8.0+ 起)|
| 管理者介面 | ✅ 第一個建立的帳號自動成為管理者 |
#### 評估矩陣(C1–C7)
| 準則 | 評分 | 說明 |
| ---- | ---- | ---- |
| C1 非 Docker | ✅ | npm 安裝無需 Docker;MongoDB Community Server 可裝為 Windows 系統服務 |
| C2 Windows | ✅ | Node.js + npm 完整支援 Windows;官方有 Windows CI 測試 |
| C3 llama.cpp | ⚠️ | 需透過 Jan / LM Studio / 裸 llama.cpp server 的 OpenAI-compatible API 間接連接;無原生 GGUF 整合 |
| C4 功能完整 | ⚠️ | Chat UI + MCP Client(✅)+ RAG(選配部署)+ no-code Agent(⚠️ 非 LangGraph 等級);Code Interpreter 需雲端付費 |
| C5 低資源 | ⚠️ | MongoDB + Node.js 服務持續佔用記憶體(建議 8GB RAM);比 FastAPI + SQLite 原生架構重 |
| C6 存續性 | ✅ | 34.8k stars,360 位貢獻者,v0.8.4 距評估 2 天,極活躍 |
| C7 商用風險 | ✅ | MIT 完全開源,核心功能商用零風險;Code Interpreter 為選配雲端服務 |
#### 架構整合評估
**整合方式一:取代 React 前端(SSE Proxy 模式)**
```
LibreChat UI(port 3080)
↓ Custom Endpoint
FastAPI Proxy(port 8000)→ LangGraph → llama.cpp server(port 8080)
```
- LibreChat 作為使用者介面,後端 LangGraph Agent 邏輯完整保留
- ⚠️ **技術障礙**:需實作 FastAPI Proxy 將 LangGraph 三段 SSE 格式(token/sources/done)轉換為 LibreChat 期望的 OpenAI streaming 格式
- ⚠️ LibreChat 對話 Checkpoint 儲存於 MongoDB,而非 SA 文件的 SQLite `langgraph_checkpoints`
**整合方式二:附加多用戶 AI 工具站(推薦)**
```
SA 現有架構(完整保留,內部使用)
‖
LibreChat(獨立部署,port 3080)
↓ Custom Endpoint
Jan / LM Studio(port 1337/1234)
↓ MCP Client
CAD Tools MCP Server(port 8100)
```
- LibreChat 作為**獨立多用戶 AI 工具站**,不干擾現有 SA 架構
- 部內非技術人員透過瀏覽器使用 CAD 問答、文件查詢等功能
- ✅ 無需修改任何現有 SA 程式碼,平行部署
- ✅ MCP Client 可直接調用 CAD Tools MCP Server 工具
#### 總評
| 向度 | 評分(5分制)| 說明 |
| ---- | ------------ | ---- |
| 功能符合度 | ⭐⭐⭐ (3/5) | Chat UI + 多用戶管理強;但 Agent 為 no-code 等級,Code Interpreter 需雲端付費,RAG 需額外部署 |
| 部署便利性 | ⭐⭐⭐ (3/5) | npm 安裝可行,但 MongoDB 安裝為額外前置作業;Docker Compose 最簡但需 Docker 權限 |
| 資源消耗 | ⭐⭐⭐ (3/5) | MongoDB + Node.js 持續服務,資源需求高於 SA FastAPI + SQLite 原生架構 |
| 公司存續性 | ⭐⭐⭐⭐⭐ (5/5) | 34.8k stars、MIT、極活躍社群,長期維護風險低 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源;Code Interpreter 為選配付費服務,不影響核心功能 |
| **綜合推薦** | ⚠️ **特定場景建議**:適合附加部署為多用戶 AI 工具站;不建議取代現有 SA LangGraph 核心架構 ||
**建議定位(附加部署)**:
LibreChat 最適合 MEC-AI 的**補充場景**——**多用戶 AI 對話前台**:
當部內多位非技術人員需要透過瀏覽器使用 AI 工具(CAD 問答、文件查詢等),LibreChat 提供:
1. 開箱即用的多用戶帳號管理(含 LDAP,無需自行實作登入系統)
2. Web UI 連接本地 Jan / LM Studio(llama.cpp GGUF,離線內網可用)
3. MCP Client 直接調用 CAD Tools MCP Server(port 8100)工具
4. 對話管理、歷史紀錄、Agent 設定介面完整
**不建議**:以 LibreChat 取代 SA 文件的核心 LangGraph Agent 架構——LibreChat Agents 為 no-code 助理設定介面,無法精確對應 SA 文件的 SSE 三段事件格式(token/sources/done)、AsyncSqliteSaver Checkpoint、多模態 Qwen2.5-VL 圖片分析工作流程。
---
### 方案 7:openclaw/openclaw(OpenClaw)
- **GitHub**:https://github.com/openclaw/openclaw
- **Stars**:330,000+(截至評估日 2026-03-23,極高人氣)
- **分類**:B — Agent 框架(個人助理運行時 / Omni-Channel Bot Gateway)
- **授權**:MIT
- **語言**:TypeScript 88.6%、Swift 7.1%(iOS)、Kotlin 1.6%(Android)
- **最新版本**:v2026.3.13(上週發布)
- **貢獻者**:1,269 位
- **官網**:https://openclaw.ai · 文件:https://docs.openclaw.ai
- **核心定位**:個人 AI 助理平台,架設於自有設備上,透過 Gateway WebSocket 控制面統一管理多個通訊頻道(WhatsApp/Telegram/Slack/Discord/Signal/iMessage 等 22 種)
#### 架構概覽
```
WhatsApp / Telegram / Slack / Discord / Signal / iMessage / Matrix / Teams / ...(22 種頻道)
│
▼
┌───────────────────────────────┐
│ Gateway(控制面) │
│ ws://127.0.0.1:18789 │
│ - 多頻道路由、會話管理 │
│ - 工具呼叫(技能/瀏覽器/節點)│
│ - Cron / Webhook / 安全策略 │
└──────────────┬────────────────┘
├─ Pi agent(RPC 模式,工具串流)
├─ CLI(openclaw …)
├─ WebChat UI
├─ macOS App(選配)
└─ iOS / Android 節點(選配)
```
**關鍵子系統**:
| 子系統 | 說明 | 是否與 SA 相關 |
| ------ | ---- | -------------- |
| Gateway WS 控制面 | 單一 WebSocket 端點,管理頻道、工具、事件 | — |
| Pi Agent 運行時 | RPC 模式,含工具串流、區塊串流 | 類似 LangGraph,但封閉 |
| Skills(技能)| `~/.openclaw/workspace/skills/`,可從 ClawHub 安裝 | 類似 MCP 工具,但非 MCP 協議 |
| Sessions 模型 | 主會話(1:1)/ 群組隔離,Agent-to-Agent 協作 | 類似 LangGraph checkpoint |
| Cron / Webhook | 定時觸發 + HTTP Webhook 自動化 | 額外自動化能力 |
| 沙箱模式 | 群組對話可啟動 Docker 沙箱隔離執行環境 | 安全機制 |
#### 安裝方式
```bash
# 全域安裝(Node.js 24 推薦,或 22.16+)
npm install -g openclaw@latest
# 引導設定(建議,互動式)
openclaw onboard --install-daemon
```
| 平台 | 支援狀況 | 說明 |
| ---- | -------- | ---- |
| macOS | ✅ 原生 | 含 App 版(選配)|
| Linux | ✅ 原生 | |
| **Windows** | ⚠️ **WSL2 強制建議** | README:「Windows (via WSL2; strongly recommended)」;Windows 原生未全面測試 |
| Docker | ⚠️ 選配 | 沙箱模式用;非主要安裝方式 |
#### LLM 連接方式
OpenClaw **不提供本地 LLM 推理**,直接連接雲端 API:
```json
{
"agent": {
"model": "anthropic/claude-opus-4-6"
}
}
```
| LLM 類型 | 支援狀況 | 說明 |
| -------- | -------- | ---- |
| OpenAI(GPT-5.2 / Codex) | ✅ | 主要贊助商 |
| Anthropic Claude | ✅ | 預設範例模型 |
| 其他雲端 Provider | ✅ | Model failover / OAuth 輪換 |
| **本地 llama.cpp(GGUF)** | ❌ | **無本地推理支援** |
| **Ollama / LM Studio** | ❌ | **無 OpenAI-compatible 本地端點配置** |
> ❌ **C3 關鍵缺口**:OpenClaw 完全依賴雲端 LLM API,無法在內網離線環境下使用本地 llama.cpp Qwen2.5-VL 模型。
#### 頻道支援(共 22 種)
WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、BlueBubbles(iMessage 推薦)、iMessage(舊版)、IRC、Microsoft Teams、Matrix、Feishu、LINE、Mattermost、Nextcloud Talk、Nostr、Synology Chat、Tlon、Twitch、Zalo、Zalo Personal、WebChat
> MEC-AI SA 文件為 OA 員工內部使用工具,**不需要通訊頻道整合**——此為 OpenClaw 最核心價值,但完全不適用於 SA 場景。
#### 功能對比(vs SA 文件需求)
| SA 需求 | OpenClaw 現況 |
| ------- | ------------- |
| FastAPI 後端(Python)| ❌ Node.js Gateway,無 Python 生態整合 |
| LangGraph Agent 狀態機 | ⚠️ Pi agent 有 Agent loop,但設計為個人助理(非可程式化狀態機)|
| langchain-mcp-adapters | ❌ 無 MCP 協議支援(使用私有 Gateway WS 協議)|
| llama.cpp server 直接推理 | ❌ 僅支援雲端 API,無本地 GGUF |
| pgvector 向量搜尋 | ❌ 無 RAG 機制 |
| nomic-embed-text Embedding | ❌ 無 Embedding 功能 |
| SSE 串流(token/sources/done)| ❌ 使用自有 WS streaming 協議 |
| 多模態圖片分析(Qwen2.5-VL)| ⚠️ 支援多模態(圖片/音訊/影片),但需雲端視覺模型 |
| 離線內網完全隔離 | ❌ 強依賴雲端 LLM API |
| Windows 無 Docker 直接安裝 | ⚠️ WSL2 強制建議(非純 Windows 原生)|
#### 評估矩陣(C1–C7)
| 準則 | 評分 | 說明 |
| ---- | ---- | ---- |
| C1 非 Docker | ✅ | `npm install -g openclaw@latest` 無需 Docker;daemon 模式以 launchd/systemd 後台運行 |
| C2 Windows | ⚠️ | 官方**強烈建議 WSL2**;Windows 原生(PowerShell)安裝未受到充分測試 |
| C3 llama.cpp | ❌ | 僅支援雲端 LLM API(OpenAI、Anthropic 等);**無本地 GGUF 推理能力** |
| C4 功能完整 | ⚠️ | Agent loop + Skills + 多頻道強;但無 RAG、無 MCP 標準協議、無 pgvector;設計目標與 SA 文件完全不同 |
| C5 低資源 | ✅ | 輕量 Node.js Gateway daemon,資源需求低 |
| C6 存續性 | ✅ | 330k stars、1,269 位貢獻者、極活躍(最新版距評估 10 天)|
| C7 商用風險 | ✅ | MIT 完全開源,商用零風險 |
#### 值得借鑑的設計模式
雖然 OpenClaw 不建議用於 MEC-AI,但有幾個設計值得參考:
1. **Skills 系統**:以 `SKILL.md` 描述技能,Agent 可按需載入(類似 Langflow MCP Server / Jan Skills)
2. **Gateway DM 安全策略**:`dmPolicy="pairing"` 配對碼機制,防止未授權使用者存取
3. **Agent-to-Agent(sessions_* tools)**:跨會話協作模式(`sessions_send`),可啟發 Multi-Agent 設計
4. **Cron + Webhook 觸發**:定時任務 + 外部 HTTP 觸發,類似 LangGraph 的外部事件驅動
#### 總評
| 向度 | 評分(5分制)| 說明 |
| ---- | ------------ | ---- |
| 功能符合度 | ⭐ (1/5) | 設計目標(個人通訊助理)與 SA 文件(企業 AI 後端)完全不同;雲端 LLM 依賴是根本性障礙 |
| 部署便利性 | ⭐⭐⭐⭐ (4/5) | npm 一行安裝,daemon 模式自動後台運行 |
| 資源消耗 | ⭐⭐⭐⭐⭐ (5/5) | 輕量 Node.js Gateway,資源消耗低 |
| 公司存續性 | ⭐⭐⭐⭐⭐ (5/5) | 330k stars,規模極大,長期維護有保障 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源,無商用風險 |
| **綜合推薦** | ❌ **不建議**:雲端 LLM 強依賴(C3 缺口)+ Windows 需 WSL2(C2 限制)+ 設計定位(個人通訊助理)與 MEC-AI 企業 AI 後端需求根本不同 ||
**建議定位**:OpenClaw 是**個人 AI 助理(Personal AI Assistant)**領域的頂尖開源專案,學習其 Skills 系統和 Gateway 架構設計有參考價值,但**不適合用於 MEC-AI 任何架構層的取代或強化**。
> 若 MEC-AI 未來有**通訊頻道整合需求**(如讓員工透過 Telegram/Teams 查詢 CAD 指令),OpenClaw 可作為專用的「頻道 Bot Gateway」附加部署,但前提是解決本地 LLM 接入問題(目前 OpenClaw 無此能力)。
---
### 方案 8:HKUDS/nanobot
- **GitHub**:https://github.com/HKUDS/nanobot
- **Stars**:35,500+(截至評估日 2026-03-23)
- **分類**:B — Agent 框架(超輕量個人助理運行時,OpenClaw 的 Python 超輕量實作)
- **授權**:MIT
- **語言**:Python 98.0%、TypeScript 1.1%
- **最新版本**:v0.1.4.post5(上週發布,幾乎每日更新)
- **貢獻者**:164 位
- **組織**:HKUDS(香港大學數據科學研究組)
- **PyPI**:`pip install nanobot-ai`
- **核心定位**:OpenClaw 的超輕量 Python 複刻版——比 OpenClaw 少 99% 程式碼,以 Python 生態實作相同的個人 AI 助理 + 多頻道 Gateway 功能
#### 與 OpenClaw 對比
| 面向 | nanobot | OpenClaw |
| ---- | ------- | -------- |
| 語言 | **Python 98%**(與 SA 生態一致)| TypeScript 88.6% |
| 安裝 | `pip install nanobot-ai` | `npm install -g openclaw@latest` |
| 程式碼量 | ≈OpenClaw 的 1%(極簡,易讀易改)| 大型完整專案 |
| MCP Client | ✅ 支援(stdio + HTTP,相容 Claude Desktop 設定)| ⚠️ 部分支援 |
| 本地 LLM | ⚠️ Ollama / vLLM / custom OpenAI-compatible | ❌ 僅雲端 API |
| Windows | ⚠️ Python 跨平台但無官方 Windows 文件 | ⚠️ 需 WSL2 |
| Stars | 35.5k | 330k |
> ✅ **關鍵優勢(vs OpenClaw)**:nanobot 透過 `custom` 或 `vllm` Provider 可連接任何 OpenAI-compatible 端點,包含本地 llama.cpp server——OpenClaw 完全做不到這點。
#### 安裝方式
```bash
# 標準安裝(穩定)
pip install nanobot-ai
# 最新開發版
git clone https://github.com/HKUDS/nanobot.git
cd nanobot
pip install -e .
# 初始化
nanobot onboard
# 或互動式精靈
nanobot onboard --wizard
```
| 平台 | 支援狀況 | 說明 |
| ---- | -------- | ---- |
| macOS / Linux | ✅ | 主要支援平台,有 systemd 服務設定 |
| **Windows** | ⚠️ | Python 可跨平台使用,但 README 無 Windows 官方說明;WhatsApp bridge 需重建(`rm -rf`),此指令在 Windows 需調整 |
| Docker | ✅ | 官方提供 Dockerfile + docker-compose.yml |
#### LLM 連接方式
```json
{
"providers": {
"custom": {
"apiBase": "http://localhost:8080/v1",
"apiKey": "na"
}
},
"agents": {
"defaults": {
"model": "qwen2.5-vl-7b",
"provider": "custom"
}
}
}
```
| Provider | 類型 | 說明 |
| -------- | ---- | ---- |
| `custom` | **任何 OpenAI-compatible 端點** | ✅ 可直連 llama.cpp server(`localhost:8080/v1`)|
| `vllm` | 本地/遠端 OpenAI-compatible | ✅ vLLM + llama.cpp + LM Studio + Jan |
| `ollama` | Ollama 本地 | ✅ 低門檻本地 LLM |
| `openrouter` | 雲端 Gateway | 全模型訪問,推薦初學者 |
| `anthropic` | Claude 直連 | |
| `openai` | GPT 直連 | |
| `deepseek` | DeepSeek 直連 | |
| `dashscope` | Qwen(阿里雲)| `qwen2.5-vl` 可用 |
> ⚠️ C3 評估:nanobot 可透過 `custom` provider 連接 **llama.cpp server**(OpenAI-compatible API),但**無原生 GGUF 整合**(不能直接載入 `.gguf` 檔),需先啟動 llama.cpp server 作為中介服務。
#### MCP 整合方式
nanobot 是 **MCP Client**,設定格式與 Claude Desktop / Cursor 完全相容:
```json
{
"tools": {
"mcpServers": {
"cad-tools": {
"command": "python",
"args": ["-m", "cad_mcp_server"]
},
"cad-tools-remote": {
"url": "http://localhost:8100/sse",
"headers": {}
}
}
}
}
```
支援兩種傳輸模式:
- **Stdio**:本地 MCP Server(`command + args`),適合 CAD Tools MCP Server(Port 8100 stdio 模式)
- **HTTP/SSE**:遠端 MCP Server 端點
MCP 工具在啟動時自動發現並註冊,LLM 可當作內建工具使用,無需額外設定。
#### 功能清單
| 功能 | 支援狀況 | 說明 |
| ---- | -------- | ---- |
| Agent loop(LLM ↔ 工具呼叫)| ✅ | `agent/loop.py`,精簡易讀 |
| Persistent Memory | ✅ | token-based 記憶,自動管理 |
| Skills 系統 | ✅ | `~/.nanobot/workspace/skills/`,可從 ClawHub 安裝 |
| MCP Client | ✅ | stdio + HTTP,相容 Claude Desktop |
| Web Search | ✅ | Brave / Tavily / Jina / SearXNG / DuckDuckGo(自動 fallback)|
| Cron(排程任務)| ✅ | 定時觸發 |
| Heartbeat(主動喚醒)| ✅ | 定時推送訊息 |
| 多頻道 | ✅ | Telegram / Discord / WhatsApp / Feishu / Slack / Email / QQ / WeCom / DingTalk |
| Subagent(背景任務)| ✅ | 背景執行子任務 |
| 多模態(圖片/音訊)| ⚠️ | 路線圖中("Multi-modal: See and hear"),目前有限制 |
| RAG / pgvector | ❌ | 無 |
| Embedding API | ❌ | 無 |
| 自訂 SSE 格式 | ❌ | 使用自有內部協議,非 SA 三段 SSE |
#### 評估矩陣(C1–C7)
| 準則 | 評分 | 說明 |
| ---- | ---- | ---- |
| C1 非 Docker | ✅ | `pip install nanobot-ai`,無需 Docker;也支援 Docker 可選部署 |
| C2 Windows | ⚠️ | Python 可跨平台,但官方無 Windows 安裝文件;WhatsApp bridge 指令(`rm -rf`)需 Windows 替代;CLI 基本功能可用 |
| C3 llama.cpp | ⚠️ | 透過 `custom` 或 `vllm` provider 可連接 llama.cpp server(OpenAI-compatible API);**無原生 GGUF 支援**,需先啟動 llama.cpp/LM Studio/Jan 作中介 |
| C4 功能完整 | ⚠️ | Agent loop + MCP Client(可接 CAD Tools MCP Server)+ Skills + Memory 均有;但**無 RAG/pgvector**、無 Embedding API、無自訂 SSE 格式 |
| C5 低資源 | ✅ | 「99% smaller than OpenClaw」;純 Python daemon,記憶體佔用極低 |
| C6 存續性 | ✅ | 35.5k stars、HKU 學術組織背書、幾乎每日發布更新(v0.1.4.post5),活躍度極高 |
| C7 商用風險 | ✅ | MIT 完全開源,商用零風險 |
#### 與 SA 文件需求對照
| SA 需求 | nanobot 現況 |
| ------- | ------------ |
| FastAPI 後端(Python)| ⚠️ 同為 Python,但 nanobot 是獨立進程,非 FastAPI web server |
| LangGraph Agent 狀態機 | ⚠️ 有 Agent loop(精簡版),非 LangGraph 程式化狀態機 |
| langchain-mcp-adapters(MCP)| ✅ 原生 MCP Client,可直接連 CAD Tools MCP Server |
| llama.cpp server 直接推理 | ⚠️ 透過 `custom` provider 連 OpenAI-compatible API(需先啟 llama.cpp server)|
| pgvector 向量搜尋 | ❌ 無 RAG 機制 |
| nomic-embed-text Embedding | ❌ 無 Embedding 功能 |
| SSE 串流(token/sources/done)| ❌ 使用自有內部協議 |
| 多模態圖片分析(Qwen2.5-VL)| ⚠️ 路線圖中,接雲端視覺模型可用,自架需 custom provider |
| 離線內網完全隔離 | ⚠️ 使用 custom/vllm provider 時可完全離線;Web Search 可設 SearXNG 自架 |
| Windows 無 Docker 直接安裝 | ⚠️ Python pip 可安裝,但無官方 Windows 操作文件 |
#### 整合評估(附加 MCP Bot 場景)
nanobot 最適合 MEC-AI 的**附加 Bot 場景**——比 OpenClaw **更適合**,因為:
```
員工 Telegram / Slack / Discord
↓
nanobot Gateway(Python daemon)
↓ MCP Client
CAD Tools MCP Server(Port 8100)→ cad_command_query / cad_shortcut_lookup
↓ custom provider
LM Studio / Jan(llama.cpp, localhost:1234)→ Qwen2.5-VL
```
- ✅ 純 Python,與 SA 團隊技術棧一致,方便維護和擴充
- ✅ MCP Client 設定格式相容 Claude Desktop,複製貼上即可接入 CAD Tools MCP Server
- ✅ `custom` provider 可接本地 Jan / LM Studio(llama.cpp GGUF),完整內網離線
- ✅ SearXNG 自架搜尋(零外部依賴),完全離線內網
#### 總評
| 向度 | 評分(5分制)| 說明 |
| ---- | ------------ | ---- |
| 功能符合度 | ⭐⭐ (2/5) | MCP Client + Skills + Memory 佳;但缺 RAG、Embedding、自訂 SSE,定位仍是個人助理 |
| 部署便利性 | ⭐⭐⭐⭐⭐ (5/5) | `pip install nanobot-ai` 一行安裝,比所有其他方案更簡單 |
| 資源消耗 | ⭐⭐⭐⭐⭐ (5/5) | 極輕量純 Python,資源消耗最低 |
| 公司存續性 | ⭐⭐⭐⭐ (4/5) | 35.5k stars、HKU 學術組織、極活躍;相對 OpenClaw 規模較小 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源,無任何商用風險 |
| **綜合推薦** | ⚠️ **特定場景條件建議**:不建議取代 SA LangGraph 核心架構;但作為**多頻道 Bot 附加平台**(接入 CAD MCP Server + llama.cpp + 員工通訊軟體),比 OpenClaw 更適合 MEC-AI 環境 ||
**建議定位**:
nanobot 是 MEC-AI 中**附加多頻道 Bot Gateway 的首選輕量方案**(優於 OpenClaw):
1. **Python 生態**:SA 後端是 Python/FastAPI,nanobot 同樣 Python,技術棧一致,團隊維護成本低
2. **MCP Client 接入**:幾乎零設定接入 CAD Tools MCP Server,設定格式與 Claude Desktop 相同
3. **接通本地 llama.cpp**:透過 `custom` provider 連接已部署的 Jan / LM Studio,無需額外雲端費用
4. **超輕量**:與 LangGraph + FastAPI 架構並行部署,資源競爭低
**核心限制**:無 RAG/pgvector、無自訂 SSE 格式——這些需求仍需 SA 主架構(LangGraph + FastAPI + pgvector)提供,nanobot 定位為輔助頻道層,不取代核心 Agent 邏輯。
---
### 方案 9:qwibitai/nanoclaw(NanoClaw)
- **GitHub**:https://github.com/qwibitai/nanoclaw
- **Stars**:24,900+(截至評估日 2026-03-23)
- **分類**:B — Agent 框架(OpenClaw 的容器化安全 TypeScript 替代品,Claude Agent SDK 驅動)
- **授權**:MIT
- **語言**:TypeScript 95.0%、Python 3.0%、Shell 1.1%
- **最新版本**:v1.2.21(2 天前,極活躍)
- **貢獻者**:56 位
- **官網**:https://nanoclaw.dev
- **核心定位**:OpenClaw 的安全強化輕量替代品——每個 AI Agent 在獨立 Linux 容器(Docker / Apple Container)中執行,比 OpenClaw 的應用層權限管控更具 OS 級安全隔離
#### 核心設計哲學
> *"NanoClaw provides that same core functionality [as OpenClaw], but in a codebase small enough to understand: one process and a handful of files."*
| 哲學 | 說明 |
| ---- | ---- |
| **Secure by isolation** | Agent 執行在 Linux container,只有明確 mount 的目錄可存取,非應用層 allowlist |
| **Small enough to understand** | 單一 Node.js 進程,數個源文件,無微服務 |
| **Built for the individual** | 鼓勵 fork + 自訂代碼,非配置文件驅動 |
| **Skills over features** | 功能以 Claude Code skill(`/add-telegram`)形式提交,不膨脹核心代碼 |
| **AI-native setup** | 無安裝精靈,`/setup` 由 Claude Code 引導完成 |
#### 技術架構
```
Channels --> SQLite --> Polling loop --> Container (Claude Agent SDK) --> Response
```
- **單一 Node.js 進程**(TypeScript)
- **每個 Agent 一個容器**(Docker 或 Apple Container on macOS)
- **每群組隔離記憶**:各群組有獨立 `CLAUDE.md`、獨立 filesystem、獨立容器
- **IPC via filesystem**:容器間透過檔案系統通訊
- **SQLite**:儲存訊息、群組、會話、狀態
#### 安裝要求
| 必要條件 | 說明 |
| -------- | ---- |
| Node.js 20+ | JavaScript 執行環境 |
| Claude Code | **必須**,設定/自訂均透過 Claude Code skills |
| Docker / Apple Container | **必須**,Agent 執行環境 |
| macOS 或 Linux | **官方支援平台** |
> ⚠️ **C1、C2 雙重障礙**:Docker **是 NanoClaw 安全模型的核心**,非可選元件;且官方 Requirements 明確只列 macOS 或 Linux(FAQ 僅提 "Windows via WSL2")。
#### LLM 連接
NanoClaw 運行在 **Anthropic Claude Agent SDK** 上,預設直接呼叫 Anthropic API:
```env
ANTHROPIC_BASE_URL=https://your-api-endpoint.com
ANTHROPIC_AUTH_TOKEN=your-token-here
```
| 類型 | 支援狀況 | 說明 |
| ---- | -------- | ---- |
| Anthropic Claude(官方)| ✅ | 主要設計目標,Claude Agent SDK |
| Anthropic-format 相容端點 | ⚠️ | 設定 `ANTHROPIC_BASE_URL` 可連,但需 Anthropic API 格式相容 |
| **OpenAI-compatible(llama.cpp / LM Studio / Jan)**| ❌ | **Anthropic API format ≠ OpenAI API format**,無法直接連接 |
| Ollama(透過 Anthropic proxy)| ⚠️ | 需 Anthropic format proxy 轉換中介層,複雜度高 |
> ❌ **C3 主要障礙**:SA 文件使用 llama.cpp / LM Studio / Jan 的 **OpenAI-compatible API**,而 NanoClaw 需要 **Anthropic API format**——兩者不相容,無法直接連接本地 GGUF 推理服務。
#### 與同類方案比較
| 面向 | NanoClaw | nanobot | OpenClaw |
| ---- | -------- | ------- | -------- |
| 語言 | TypeScript 95% | **Python 98%** | TypeScript 88% |
| LLM API | **Anthropic-only** | OpenRouter / Ollama / custom(任何 OpenAI-compatible)| 雲端多 Provider |
| 本地 llama.cpp | ❌(Anthropic format 不相容)| ⚠️(custom provider,需 llama.cpp server)| ❌ |
| Docker 需求 | ❌ **強制(安全核心)** | ✅ 選配 | ✅ 選配 |
| Windows | ❌ macOS/Linux only | ⚠️ Python 跨平台 | ⚠️ WSL2 |
| 安全隔離 | ✅ **容器等級(OS-level)** | 無特別隔離 | 應用層 allowlist |
| 設置方式 | Claude Code skills `/setup` | `nanobot onboard` | `openclaw onboard` |
| Claude Code 依賴 | **必須安裝** | 無需 | 無需 |
#### 評估矩陣(C1–C7)
| 準則 | 評分 | 說明 |
| ---- | ---- | ---- |
| C1 非 Docker | ❌ | Docker(或 Apple Container)是 NanoClaw 安全隔離的**核心架構**,無法移除;每個 Agent 強制執行在獨立容器中 |
| C2 Windows | ❌ | 官方 Requirements 明確只列 "macOS or Linux";Windows 僅在 FAQ 提到 WSL2(非官方支援)|
| C3 llama.cpp | ⚠️ | 技術上可設定 `ANTHROPIC_BASE_URL` 連接 Anthropic-format 相容端點;但 llama.cpp/LM Studio/Jan 是 **OpenAI-compatible API format**,無法直接接通;需要格式轉換中介層(複雜度高)|
| C4 功能完整 | ⚠️ | 多頻道(WhatsApp/Telegram/Discord/Slack/Gmail)+ 容器沙箱 + 排程任務 + 群組記憶;**無 RAG/pgvector、無 Embedding API、無自訂 SSE** |
| C5 低資源 | ⚠️ | 每個 Agent session 一個 Docker container,資源需求明顯高於純 daemon 方式(nanobot/OpenClaw)|
| C6 存續性 | ✅ | 24.9k stars,幾乎每小時有提交,v1.2.21(2 天前),積極發展 |
| C7 商用風險 | ✅ | MIT 完全開源,商用零風險 |
#### 與 SA 文件需求對照
| SA 需求 | NanoClaw 現況 |
| ------- | ------------- |
| FastAPI 後端(Python)| ❌ TypeScript Node.js,無 Python 生態整合 |
| LangGraph Agent 狀態機 | ⚠️ Claude Agent SDK 有 Agent loop,但非可程式化狀態機 |
| langchain-mcp-adapters(MCP)| ❌ README 和 CONTRIBUTING 中未提及 MCP 協議支援 |
| llama.cpp server 直接推理 | ❌ Anthropic API format 不相容於 OpenAI-compatible(llama.cpp/LM Studio/Jan)|
| pgvector 向量搜尋 | ❌ 無 RAG 機制 |
| nomic-embed-text Embedding | ❌ 無 Embedding 功能 |
| SSE 串流(token/sources/done)| ❌ 使用 Claude Agent SDK 串流協議 |
| 離線內網完全隔離 | ❌ Claude API 需對外網路連線 |
| Windows 無 Docker 直接安裝 | ❌ Docker 強制 + macOS/Linux only |
#### 總評
| 向度 | 評分(5分制)| 說明 |
| ---- | ------------ | ---- |
| 功能符合度 | ⭐ (1/5) | 多頻道 Bot 功能存在但 Anthropic-only LLM + Docker 強制 + 無 MCP 標準協議 = 三重障礙 |
| 部署便利性 | ⭐⭐ (2/5) | Claude Code 引導設定有趣,但 Docker 強制且 Windows 不支援,阻礙在 MEC-AI 環境部署 |
| 資源消耗 | ⭐⭐⭐ (3/5) | 每 Agent 一個 container 資源較重,但 OS-level 隔離有安全優勢 |
| 公司存續性 | ⭐⭐⭐⭐ (4/5) | 24.9k stars,極活躍,但相對 OpenClaw/nanobot 社群規模較小 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源,無商用風險 |
| **綜合推薦** | ❌ **不建議**:Docker 強制(C1)+ Windows 不支援(C2)+ Anthropic API-only 無法接本地 llama.cpp(C3)三重障礙,MEC-AI 環境不適用 ||
**建議定位**:NanoClaw 是 OpenClaw 生態中安全性最強的輕量替代品(OS-level 容器隔離 vs 應用層 allowlist),其容器沙箱設計值得參考,但**不適合 MEC-AI 環境**——Docker 強制要求、Windows 不支援、以及 Anthropic API format 與 SA 架構的 llama.cpp OpenAI-compatible API 根本不相容。對比同類方案,nanobot(Python / OpenAI-compatible / pip 安裝)在 MEC-AI 附加場景的適用性遠優於 NanoClaw。
---
### 方案10:PicoClaw(sipeed/picoclaw)
#### 基本資訊
| 欄位 | 內容 |
| --- | --- |
| GitHub | https://github.com/sipeed/picoclaw |
| 星數 / 授權 | 25.8k ⭐ / MIT |
| 主要語言 | Go 89.2%、TypeScript 9.9%、Shell 0.3% |
| 最新版本 | v0.2.3(上週,共 9 個 release)|
| 貢獻者 | 178 人 |
| 主導組織 | Sipeed(深圳矽速科技,LicheeRV / MaixCAM / NanoKVM 製造商)|
| 官網 | https://picoclaw.io/ |
#### 專案定位
PicoClaw 是由 **Sipeed 硬體公司**主導開發的 Go 語言超輕量 AI Agent,**非任何現有專案(OpenClaw / nanobot / NanoClaw)的 fork**,而是以 nanobot 為設計靈感、從零以 Go 重寫(自我引導式:95% 代碼由 AI Agent 自身生成)。核心目標:在 **$10 美元的 RISC-V 嵌入式硬體**上提供完整的本地 AI 助理體驗。
#### 架構示意
```
User (CLI / Chat App / Web UI / System Tray)
↓
picoclaw gateway(單一 Go 靜態 binary)
↓
Agent loop (pkg/agent/loop.go)
├── Skills(workspace / global / builtin Markdown定義)
├── MCP native client(stdio / HTTP,v0.2.1 加入)
├── Tools(web / exec / file / vision / spawn)
├── Heartbeat(HEARTBEAT.md,每 30 分鐘)
└── Cron scheduler(排程任務)
↓
LLM Provider(OpenAI-compatible api_base 設定)
└── llama.cpp server / LM Studio / Jan / Ollama / 雲端 API
```
**資源對比(官方 benchmark,0.8GHz 單核)**:
| 框架 | 語言 | RAM | 啟動時間 | 最低硬體成本 |
| --- | --- | --- | --- | --- |
| OpenClaw | TypeScript | >1 GB | >500 秒 | Mac Mini $599 |
| nanobot | Python | >100 MB | >30 秒 | Linux SBC ~$50 |
| **PicoClaw** | **Go** | **<10 MB** | **<1 秒** | **$10 RISC-V 板** |
#### MEC-AI 關鍵準則逐項分析
**C1:非 Docker 原生安裝**
PicoClaw 發行為**單一 Go 靜態二進位**(無 C-runtime 依賴),從 GitHub Releases 或官網一鍵下載即可執行:
```bash
wget https://github.com/sipeed/picoclaw/releases/latest/download/picoclaw_Linux_arm64.tar.gz
tar xzf picoclaw_Linux_arm64.tar.gz
./picoclaw onboard
```
Docker Compose 文件存在,但明確定位為**可選部署路徑**(非架構強制)。本地 binary 模式完全不需 Docker。
> ✅ **C1 完全符合**:單一 Go binary,pip / npm / Docker 一概不需要,安裝體驗最乾淨。
---
**C2:支援 Windows**
v0.2.3 新聞明確宣告:**"System tray UI (Windows & Linux)"**;repo 語言清單包含 `Inno Setup`(Windows 安裝精靈格式);`.goreleaser.yaml` 顯示多平台交叉編譯支援。
> ✅ **C2 完全符合**:官方 Windows 原生支援(含 system tray UI),非 WSL2 繞接方案。
---
**C3:支援 llama.cpp(GGUF 本地推理)**
PicoClaw 的 provider 系統採用 **OpenAI-compatible 協議族**,任何端點均可透過 `api_base` 自定義:
```json
{
"model_list": [
{
"model_name": "qwen2.5-vl-7b",
"model": "openai/qwen2.5-vl-7b-q4_k_m",
"api_base": "http://localhost:8080/v1",
"api_key": "not-needed"
}
]
}
```
SA 架構使用的 llama.cpp server(預設 `localhost:8080`)提供 `/v1/chat/completions` OpenAI-compatible API,與 PicoClaw `openai/` 協議族**完全相容**,無需任何 wrapper 或 middleware。
相比 nanobot(透過未文件化的 `custom` provider 連入),PicoClaw 的 `api_base` 自定義為**官方文件化功能**,穩定性更高。
> ✅ **C3 完全符合**:OpenAI-compatible `api_base` 直連 llama.cpp / LM Studio / Jan,官方支援路徑。
---
**C4:功能完整性(RAG + MCP + SKILLS + AGENT)**
| 子功能 | PicoClaw 支援 | 說明 |
| --- | --- | --- |
| MCP Client | ✅ | 原生 MCP 協議整合(v0.2.1 加入),可連接 CAD Tools MCP Server Port 8100 |
| Skills 系統 | ✅ | workspace / global / builtin 三層 Markdown 技能定義 |
| Agent 邏輯 | ✅ | AGENT.md / SOUL.md / USER.md 結構化定義;spawn 子 Agent |
| 長期記憶 | ✅ | MEMORY.md / sessions / state 持久化 |
| 排程任務 | ✅ | HEARTBEAT.md(每 30 分鐘)+ cron 排程器 |
| 多頻道 | ✅ | Telegram、Discord、WhatsApp、Matrix、QQ、DingTalk、LINE、WeCom |
| Vision(多模態)| ✅ | 圖片/檔案直送 Agent,自動 base64 編碼 |
| RAG / Embedding | ❌ | 無向量搜尋、無 Embedding API、無 pgvector 整合 |
| 自訂 SSE 三段格式 | ❌ | SA 規定的 `token/sources/done` 格式需 LangGraph 主架構提供 |
> ⚠️ **C4 條件符合**:MCP + Skills + Agent + 記憶 + 多頻道 + Vision 完整;RAG/Embedding 須依賴主架構 pgvector,自訂 SSE 格式亦非 PicoClaw 職責範圍。
---
**C5:低資源消耗**
| 指標 | PicoClaw | 說明 |
| --- | --- | --- |
| 記憶體 | <10 MB(穩定版)| 最新版因快速 PR 合并約 10–20 MB,計劃優化 |
| 啟動時間 | <1 秒 | 0.6 GHz 單核,vs OpenClaw 500 秒+ |
| CPU 佔用 | 極低 | Go 靜態 binary,無解釋器開銷 |
| 磁碟安裝 | 單一 binary | 無 Python venv / node_modules |
| Docker | 不需要 | 節省完整容器化開銷 |
> ✅ **C5 完全符合**:B 類方案中資源消耗最低,比 nanobot(Python)低一個量級。
---
**C6:公司 / 專案存續性**
Sipeed 是成立多年的深圳硬體公司(代表產品:LicheeRV-Nano、MaixPy、NanoKVM),並非個人或學術側案。PicoClaw 作為 Sipeed 的軟體生態拓展:25.8k stars(約 17 天達 20k)、178 位貢獻者、v0.2.3 共 9 個 release、每小時均有 commit 合并,社群活躍度極高。
> ✅ **C6 完全符合**:成熟硬體公司背書,社群規模快速增長。
---
**C7:商用化 / 授權風險**
MIT 授權,完全可商用,無 GPL 傳染風險。
> ✅ **C7 完全符合**
---
#### PicoClaw vs B 類同方案對比
| 面向 | PicoClaw | nanobot | OpenClaw | NanoClaw |
| --- | --- | --- | --- | --- |
| 語言 | **Go** | Python | TypeScript | TypeScript |
| 記憶體 | **<10 MB** | >100 MB | >1 GB | >1 GB |
| 啟動 | **<1 秒** | >30 秒 | >500 秒 | >500 秒 |
| Docker 強制 | **❌ 選用** | ❌ 選用 | ❌ 選用 | ✅ 必須 |
| Windows | **✅ 原生** | ⚠️ WSL2 | ⚠️ WSL2 | ❌ |
| llama.cpp 連接 | **✅ api_base(官方)** | ⚠️ custom(非官方)| ❌ | ⚠️ Anthropic 格式不相容 |
| MCP Client | **✅ 內建** | ✅ | ❌ | ❌ |
| 安全沙盒 | workspace restrict | allowlist | allowlist | OS container |
| 起源 | Sipeed 公司 / Go 從零重寫 | HKUDS / Python 重寫 | 原版(TypeScript)| qwibitai / 安全強化 |
#### 評估矩陣(C1–C7)
| 準則 | 評級 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ | 單一 Go 靜態 binary,`picoclaw onboard` 即可啟動,Docker 為可選 |
| C2 Windows 支援 | ✅ | v0.2.3 官方 Windows system tray UI;Inno Setup Windows 安裝精靈 |
| C3 llama.cpp 支援 | ✅ | OpenAI-compatible `api_base` 直連 `http://localhost:8080/v1`,官方文件化路徑 |
| C4 功能完整性 | ⚠️ | MCP + Skills + Agent + 多頻道 + Vision 齊全;缺 RAG/Embedding(依賴主架構)|
| C5 資源消耗 | ✅ | <10 MB RAM,<1 秒啟動;B 類最輕量 |
| C6 公司存續性 | ✅ | Sipeed 成熟硬體公司,178 貢獻者,25.8k stars |
| C7 商用風險 | ✅ | MIT 授權,無商用限制 |
#### SA 需求對照
| SA 需求 | PicoClaw 現況 |
| --- | --- |
| LangGraph Agent 替換 | ⚠️ 可附加(非全面取代);PicoClaw 為輕量 Agent 補充,LangGraph 仍處理核心 RAG/工作流程 |
| llama.cpp 連接 | ✅ `api_base: http://localhost:8080/v1` 直連,OpenAI-compatible format 完全相容 |
| MCP Server Port 8100 | ✅ 原生 MCP Client,可直接連接 CAD Tools MCP Server |
| Windows 內網離線 | ✅ 官方 Windows 支援,單 binary 離線可用 |
| 非 Docker 部署 | ✅ 完全無需 Docker |
| 多頻道 Bot | ✅ Telegram / Discord / WhatsApp / QQ 等 9 個頻道 |
| 排程任務 | ✅ HEARTBEAT.md + cron(可補充 LangGraph 定時流程)|
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| 技術適配性 | ⭐⭐⭐⭐⭐ (5/5) | C1 / C2 / C3 / C5 全面符合,超越同類所有 B 類方案 |
| 功能完整性 | ⭐⭐⭐⭐ (4/5) | MCP + Skills + Agent 核心齊備;RAG 需仰賴主架構 |
| 嵌入友善性 | ⭐⭐⭐⭐⭐ (5/5) | <10 MB / <1 秒啟動,OA 筆電低資源環境最優 |
| 社群存續 | ⭐⭐⭐⭐⭐ (5/5) | Sipeed 硬體公司,178 貢獻者,快速增長 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源 |
| **綜合推薦** | ✅ **B 類首選** | 取代 nanobot 成為 MEC-AI 附加多頻道 Bot 的最優選擇 |
**建議定位**:PicoClaw 是目前評估 B 類方案中**綜合最優**的選擇。Go 語言的超低資源消耗(<10 MB RAM、<1 秒啟動),加上 Windows 原生支援(v0.2.3 system tray)、OpenAI-compatible `api_base` 官方文件化路徑(可直連 llama.cpp / LM Studio / Jan)、以及內建 MCP Client,使其在 MEC-AI 附加 Bot 場景**全面滿足 C1/C2/C3/C5/C6/C7 六項準則**。建議作為 nanobot 的升級替代方案,在 LangGraph 主架構之外提供多頻道通訊(Telegram/Discord/WhatsApp/QQ)、排程任務(HEARTBEAT.md)、以及 CAD Tools MCP Server Port 8100 的輕量 Bot 補充層。
---
### 方案11:IronClaw(nearai/ironclaw)
#### 基本資訊
| 欄位 | 內容 |
| --- | --- |
| GitHub | https://github.com/nearai/ironclaw |
| 星數 / 授權 | 10.7k ⭐ / MIT OR Apache-2.0(雙授權選一)|
| 主要語言 | Rust 90.4%、Shell 3.2%、JavaScript 2.7%、Python 2.3% |
| 最新版本 | v0.21.0(2026-03-20,共 24 個 release)|
| 貢獻者 | 95 人 |
| 主導組織 | NEAR AI(NEAR Protocol 的 AI 研究部門)|
| 官網 | https://www.ironclaw.com/ |
#### 專案定位
IronClaw 是 **NEAR AI 組織**以 Rust 從頭重新實作的 OpenClaw 精神繼承者(非 fork)。定位為「**你真正可以信任的安全個人 AI 助理**」,核心哲學為:資料完全本地化、透明可稽核、自我擴展能力、縱深防禦。相比 nanobot(Python 輕量復刻)、PicoClaw(Go 超低資源)、NanoClaw(Docker 安全隔離),IronClaw 選擇以 **Rust + WASM 沙盒 + PostgreSQL pgvector** 組合達到生產級安全性與完整 RAG 能力。
#### 架構示意
```
Channels(REPL / HTTP Webhooks / WASM Channels / Web Gateway SSE+WS)
↓
Agent Loop(意圖路由:command / query / task)
├── Scheduler(並行 Job,優先級管理)
│ ├── Local Workers(in-process)
│ └── Orchestrator → Docker Sandbox(可選,per-job token 隔離)
├── Routines Engine(cron / event trigger / webhook 背景任務)
└── Tool Registry
├── Built-in Tools(web / exec / file / vision)
├── MCP Protocol(外部 MCP Server 連接)
└── WASM Tools(動態構建,WASM 沙盒執行)
↓
Workspace(PostgreSQL + pgvector:Hybrid Search = 全文 + 向量 RRF 融合)
Safety Layer(Prompt Injection 防禦 + 內容清洗)
↓
LLM Backend(可設 OpenAI-compatible api_base)
```
**WASM 工具沙盒安全流程**:
```
WASM → Allowlist Validator → Leak Scan(request) → Credential Injector → Execute → Leak Scan(response) → WASM
```
#### MEC-AI 關鍵準則逐項分析
**C1:非 Docker 原生安裝**
IronClaw 本身以 **Rust 靜態 binary** 發行,提供:
- Windows Installer(.exe)
- PowerShell 一鍵安裝腳本
- Shell 腳本(macOS / Linux / WSL)
- Homebrew(macOS/Linux)
- `cargo build`(原始碼編譯)
工具沙盒採用 **WASM**(非 Docker),Docker Composer 存在但定位為「可選的 Docker Sandbox 工作器模式」,不是架構強制要求。
**然而,PostgreSQL 15+ pgvector 是必要依賴**(非可選),`ironclaw onboard` 會寫入資料庫。SA 架構已有 PostgreSQL 16 + pgvector,可共用同一實例,但若在全新 Windows 環境須另行安裝 PostgreSQL。
> ⚠️ **C1 條件符合**:IronClaw binary 本身無 Docker 強制;WASM 沙盒替代容器隔離;但 PostgreSQL + pgvector 是強制服務依賴。SA 環境已有 PostgreSQL 16,可直接共用,額外負擔較低。
---
**C2:支援 Windows**
官方安裝文件明確列出:
- "Install via Windows Installer (Windows)"
- "Compile the source code (Cargo on Windows, Linux, macOS)"
- `wix/`(Windows 安裝精靈配置目錄)存在於 repo
> ✅ **C2 完全符合**:Windows Installer 正式提供,非 WSL2 繞接。
---
**C3:支援 llama.cpp(GGUF 本地推理)**
設定方式:
```bash
LLM_BACKEND=openai_compatible
LLM_BASE_URL=http://localhost:8080/v1
LLM_API_KEY=not-needed
LLM_MODEL=qwen2.5-vl-7b-instruct
```
llama.cpp server(`/v1/chat/completions`)與 IronClaw `openai_compatible` backend 完全相容。Ollama 也是內建選項(`LLM_BACKEND=ollama`)。
**主要疑慮**:IronClaw **預設使用 NEAR AI 作為 LLM 提供商**,`ironclaw onboard` wizard 的認證步驟透過 **browser OAuth** 連接 NEAR AI 雲端服務。在**內網離線環境**中:
- 若 bootstrap 時能手動編輯 `~/.ironclaw/.env` 跳過 NEAR AI OAuth,設定 `LLM_BACKEND=openai_compatible` + `LLM_BASE_URL=http://localhost:8080/v1` 即可完全離線運行
- 若 onboard wizard 強制 NEAR AI OAuth browser 流程,則初始化本身需要聯外網路
> ⚠️ **C3 條件符合**:OpenAI-compatible backend 技術上可直連 llama.cpp;但 NEAR AI 為預設 LLM 提供商,完全離線初始化路徑需進一步驗證。
---
**C4:功能完整性(RAG + MCP + SKILLS + AGENT)**
IronClaw 是所有 B 類方案中功能覆蓋**最完整**的:
| 子功能 | IronClaw 支援 | 說明 |
| --- | --- | --- |
| MCP Client | ✅ | 原生 MCP Protocol 整合,可連 CAD Tools Port 8100 |
| RAG / 向量搜尋 | ✅ | **PostgreSQL pgvector + Hybrid Search(全文 + 向量 RRF)** 內建 |
| Agent 邏輯 | ✅ | Agent Loop + Scheduler + 並行 Job + Routines Engine |
| 長期記憶 | ✅ | Workspace Filesystem + Identity Files |
| 排程任務 | ✅ | Cron + event trigger + webhook handler |
| 多頻道 | ✅ | REPL / HTTP / WASM Channels(Telegram、Slack)/ Web Gateway |
| Web UI + SSE | ✅ | 內建 Web Gateway(Browser UI 含 chat / memory / jobs / logs)|
| 安全沙盒 | ✅ | WASM sandbox + credential protection + prompt injection defense |
| Skills 系統 | ✅ | `skills/` 目錄結構 + Plugin Architecture |
| Vision | ⚠️ | WASM channel attachments with LLM pipeline 整合(v0.19+ 加入)|
| 動態工具構建 | ✅ | 「描述需求,IronClaw 動態生成 WASM tool」|
> ✅ **C4 完全符合**:B 類中唯一**內建 pgvector RAG** 的方案,功能集接近完整 SA 架構需求。
---
**C5:低資源消耗**
| 指標 | IronClaw | 說明 |
| --- | --- | --- |
| 語言 | Rust | 原生效能,無 GC 停頓,記憶體效率接近 C |
| Binary 本身 | 輕量 | 相比 Node.js / Python 低開銷 |
| PostgreSQL | 需常駐 | SA 架構已有 PostgreSQL 16,可共用 |
| WASM 沙盒 | 輕量 | 相比 Docker 容器隔離開銷低得多 |
| OA 筆電適用性 | ⚠️ | PostgreSQL + pgvector 常駐是主要記憶體消耗來源 |
> ⚠️ **C5 條件符合**:Rust binary 自身高效;PostgreSQL 服務需常駐,但 SA 環境已有,不構成額外負擔。
---
**C6:公司 / 專案存續性**
NEAR AI 是 NEAR Protocol(知名區塊鏈公共基礎設施)的 AI 研究部門,具備穩定的組織背景與資金支持(非個人副業)。10.7k stars、95 貢獻者、v0.21.0 共 24 個 release、每小時均有 commit,開發活躍度高。
> ✅ **C6 完全符合**
---
**C7:商用化 / 授權風險**
MIT OR Apache-2.0 雙授權,選擇 Apache-2.0 可維持與商用場景的最佳相容性(專利免責條款)。
> ✅ **C7 完全符合**
---
#### IronClaw vs B 類其他方案對比
| 面向 | IronClaw | PicoClaw | nanobot | OpenClaw | NanoClaw |
| --- | --- | --- | --- | --- | --- |
| 語言 | **Rust** | Go | Python | TypeScript | TypeScript |
| 安全沙盒 | **WASM**(輕量)| workspace restrict | allowlist | allowlist | OS container(Docker 強制)|
| RAG/向量 | ✅ **pgvector 內建** | ❌ | ❌ | ❌ | ❌ |
| PostgreSQL | **✅ 必要(含 pgvector)** | ❌ | ❌ | SQLite | SQLite |
| MCP Client | ✅ | ✅ | ✅ | ❌ | ❌ |
| Windows | ✅ Installer | ✅ system tray | ⚠️ WSL2 | ⚠️ WSL2 | ❌ |
| Docker 強制 | ❌(WASM 替代)| ❌ | ❌ | ❌ | ✅ |
| llama.cpp 連接 | ⚠️ openai_compatible(NEAR AI OAuth 疑慮)| ✅ api_base(官方)| ⚠️ custom(非官方)| ❌ | ⚠️ Anthropic 格式 |
| 資源消耗 | ⚠️ Rust 輕 + PG 常駐 | ✅ <10 MB Go | ⚠️ >100 MB Python | ⚠️ >1 GB Node | ⚠️ Docker + Node |
| 組織 | NEAR AI | Sipeed 硬體公司 | HKUDS 學術 | OpenClaw 商業 | qwibitai |
**關鍵差異化**:IronClaw 是 B 類中**唯一內建 pgvector RAG** 且**生產級 WASM 安全沙盒**的方案,功能集最接近 SA 核心架構需求(pgvector 已在 SA 設計中)。但 NEAR AI OAuth 初始化依賴是離線部署的主要不確定因素。
#### 評估矩陣(C1–C7)
| 準則 | 評級 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ⚠️ | WASM 沙盒替代 Docker;binary 無 Docker 強制;但 PostgreSQL 15+ pgvector 為必要服務(SA 環境已有可共用)|
| C2 Windows 支援 | ✅ | Windows Installer + Cargo 編譯均正式支援;`wix/` 安裝精靈存在 |
| C3 llama.cpp 支援 | ⚠️ | `LLM_BACKEND=openai_compatible` + `LLM_BASE_URL` 技術上可連 llama.cpp;但 onboard wizard 預設 NEAR AI OAuth,純離線初始化路徑待驗證 |
| C4 功能完整性 | ✅ | B 類功能最完整:MCP + pgvector RAG + Hybrid Search + WASM 沙盒 + Web Gateway (SSE) + Routines/cron |
| C5 資源消耗 | ⚠️ | Rust binary 自身高效;PostgreSQL 服務需常駐(SA 環境已有,不構成額外負擔)|
| C6 公司存續性 | ✅ | NEAR AI 組織背書,95 貢獻者,v0.21.0,開發活躍 |
| C7 商用風險 | ✅ | MIT OR Apache-2.0 雙授權,商用零風險 |
#### SA 需求對照
| SA 需求 | IronClaw 現況 |
| --- | --- |
| LangGraph Agent 替換 | ⚠️ 功能上最接近完整替代(含 pgvector RAG),但 NEAR AI OAuth 依賴為主要障礙;建議先以 appendix 模式附加 |
| llama.cpp 連接 | ⚠️ `openai_compatible` backend 可連,但需確認 onboard 是否可跳過 NEAR AI OAuth |
| MCP Server Port 8100 | ✅ 原生 MCP Protocol Client,可直連 CAD Tools MCP Server |
| pgvector RAG | ✅ **內建 Hybrid Search(pgvector + 全文 RRF)**,可與 SA 的 PostgreSQL 16 共用實例 |
| Windows 內網離線 | ⚠️ Windows binary 支援;但初始化是否需外網 NEAR AI OAuth 待驗證 |
| 非 Docker 部署 | ✅ WASM 沙盒替代;PostgreSQL 為唯一服務依賴 |
| Web UI + SSE 串流 | ✅ 內建 Web Gateway(SSE + WebSocket)|
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| 技術適配性 | ⭐⭐⭐⭐ (4/5) | C2/C4/C6/C7 全符合;C1/C3/C5 條件符合 |
| 功能完整性 | ⭐⭐⭐⭐⭐ (5/5) | B 類唯一含 pgvector RAG 方案,最接近 SA 整體需求 |
| 安全性 | ⭐⭐⭐⭐⭐ (5/5) | WASM 沙盒 + credential protect + prompt injection defense,B 類最高安全等級 |
| 社群存續 | ⭐⭐⭐⭐ (4/5) | NEAR AI 組織,10.7k stars,穩定但規模小於 PicoClaw/OpenClaw |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT OR Apache-2.0,無商用限制 |
| **綜合推薦** | ⚠️ **條件推薦** | NEAR AI OAuth 離線初始化路徑待驗證後,若可跳過則升為首選附加方案 |
**建議定位**:IronClaw 是 B 類中功能集**最完整**的方案,其**內建 pgvector Hybrid Search**(全文 + 向量 RRF 融合)與 SA 架構 PostgreSQL 16 + pgvector 天然契合,WASM 沙盒安全架構也優於 NanoClaw 的 Docker 強制模式。**決策關鍵點**:若能確認 `~/.ironclaw/.env` 可手動設定 `LLM_BACKEND=openai_compatible` 跳過 NEAR AI OAuth 完成離線初始化,IronClaw 應**取代 PicoClaw 成為 B 類主推方案**(因為 IronClaw 的 pgvector RAG 使其可深度整合 SA 主架構,而 PicoClaw 仍需依賴 LangGraph 提供 RAG)。建議在測試環境先驗證 NEAR AI 帳號依賴的可繞過性。
---
### 方案12:ZeroClaw(zeroclaw-labs/zeroclaw)
#### 基本資訊
| 欄位 | 內容 |
| --- | --- |
| GitHub | https://github.com/zeroclaw-labs/zeroclaw |
| 星數 / 授權 | 28.4k ⭐ / MIT OR Apache-2.0(雙授權選一)|
| 主要語言 | Rust 93.7%、TypeScript 2.7%、Python 1.4%、Shell 1.4% |
| 最新版本 | v0.5.9(3 小時前,共 130 個 release!)|
| 貢獻者 | 199 人 |
| 主導社群 | ZeroClaw Labs(Argenis De La Rosa 主導,Harvard / MIT / Sundai.Club 社群)|
| 官網 | https://zeroclawlabs.ai/ |
#### 專案定位
ZeroClaw 是 OpenClaw 的 **Rust 完全重寫版**,以「Zero overhead. Zero compromise. 100% Rust. 100% Agnostic.」為核心訴求,由 Harvard/MIT 社群成員發起。目標是:比 PicoClaw(Go <10MB)更輕(<5MB RAM)、比任何同類方案更快(<10ms 啟動),支援 20+ 通訊頻道,並擁有硬體外設整合能力(ESP32、STM32、Arduino、Raspberry Pi GPIO)。v0.5.9 共 130 個 release,是目前所有評估方案中**發版頻率最高**的專案。
**重要聲明(官方公告)**:zeroclaw.org / zeroclaw.net 係仿冒網域,唯一官方源為 `zeroclaw-labs/zeroclaw`。
#### 架構示意
```
Channels(WhatsApp / Telegram / Slack / Discord / Signal / iMessage / Matrix /
IRC / Email / Bluesky / Nostr / Mattermost / Nextcloud Talk /
DingTalk / Lark / QQ / Reddit / LinkedIn / Twitter / MQTT /
WeChat Work / WebSocket / ClawdTalk …共 22+ 頻道)
↓
Gateway(HTTP/WS/SSE 控制平面:sessions / presence / config / cron / webhooks)
↓
Agent Loop(工具分派 + Prompt 構建 + 訊息分類 + 記憶載入)
├── Skills(workspace / global / community SKILL.md / SKILL.toml)
├── MCP(Model Context Protocol tool wrapper + deferred tool sets)
├── Tools(shell / file / browser / git / web / Jira / Notion / Google Workspace / 70+)
├── Cron + SOPs(event-driven workflow:MQTT / webhook / cron / 外設觸發)
├── Hands(Multi-agent Swarm:自主代理群集)
└── Hardware Peripherals(ESP32 / STM32 / Arduino / RPi GPIO via Peripheral trait)
↓
Memory(IDENTITY.md / USER.md / MEMORY.md / AGENTS.md / SOUL.md;檔案型,非向量)
↓
LLM Backend(20+ providers;openai_compatible 自訂端點 → llama.cpp / LM Studio / Jan)
↓
Web Dashboard(React 19 + Vite 6 + Tailwind CSS 4;chat / memory / config / cron / tools / logs)
```
**資源對比(官方 benchmark,0.8GHz 單核)**:
| 框架 | 語言 | RAM | 啟動時間 | Binary 大小 | 最低硬體成本 |
| --- | --- | --- | --- | --- | --- |
| OpenClaw | TypeScript | >1 GB | >500 秒 | ~28MB | $599 Mac Mini |
| nanobot | Python | >100 MB | >30 秒 | N/A | ~$50 Linux SBC |
| PicoClaw | Go | <10 MB | <1 秒 | ~8 MB | $10 |
| **ZeroClaw** | **Rust** | **<5 MB** | **<10 ms** | **~8.8 MB** | **$10** |
#### MEC-AI 關鍵準則逐項分析
**C1:非 Docker 原生安裝**
ZeroClaw 的安裝路徑:
```bash
# 一鍵 bootstrap(無 Docker 強制)
git clone https://github.com/zeroclaw-labs/zeroclaw.git
cd zeroclaw
./install.sh
# 或 Homebrew
brew install zeroclaw
# 或原始碼
cargo build --release --locked && cargo install --path . --force --locked
```
Docker 為**選用的 runtime 模式**:設定 `runtime.kind = "docker"` 後才啟用容器執行,預設為 `native`(直接 process 執行)。Binary 本身無 Docker 依賴。
記憶體儲存為**純檔案型**(MEMORY.md / JSONL),無 PostgreSQL / pgvector 強制依賴(與 IronClaw 最大差異)。
> ✅ **C1 完全符合**:No Docker 強制;無 PostgreSQL 強制;單一 Rust 靜態 binary。
---
**C2:支援 Windows**
| 安裝方式 | Windows 支援 |
| --- | --- |
| GitHub Releases 預編譯 binary | ✅ Windows x86_64 |
| Scoop(Windows 原生套件管理)| ✅ CI/CD 自動發布 |
| Homebrew | macOS/Linux 僅 |
| `./install.sh` onboard 精靈 | ⚠️ 官方說明:**"works on macOS, Linux, and Windows (via WSL2)"** |
Windows x86_64 預編譯 binary 存在,Scoop 套件管理(Windows 原生)列入 CI/CD 發布目標,但 README 明確指出 onboard 精靈**官方推薦路徑為 WSL2**。
> ⚠️ **C2 條件符合**:Windows binary + Scoop 均存在,但 onboard 精靈文件明確說明 "Windows (via WSL2)";可直接使用預編譯 binary + 手動設定 config.toml 繞過 onboard 精靈,但需額外操作。狀況與 nanobot 類似(WSL2 建議,非強制)。
---
**C3:支援 llama.cpp(GGUF 本地推理)**
ZeroClaw 明確強調「**No lock-in: OpenAI-compatible provider support + pluggable custom endpoints**」,支援 20+ LLM backend,可設定自訂端點:
```toml
# ~/.zeroclaw/config.toml
default_provider = "openai_compatible"
# 或環境變數方式,與 llama.cpp server 完全相容
```
llama.cpp server 提供 `/v1/chat/completions`(OpenAI-compatible API),與 ZeroClaw 自訂端點機制完全相容。在 SA 環境中:
- `default_provider` 設為 openai_compatible
- `api_base_url` 指向 `http://localhost:8080/v1`
- `api_key` 設為任意值(llama.cpp 不驗證)
> ✅ **C3 完全符合**:OpenAI-compatible 自訂端點支援,可直連 llama.cpp / LM Studio / Jan,且為文件化功能而非繞接路徑。
---
**C4:功能完整性(RAG + MCP + SKILLS + AGENT)**
| 子功能 | ZeroClaw 支援 | 說明 |
| --- | --- | --- |
| MCP Client | ✅ | "MCP: Model Context Protocol tool wrapper + deferred tool sets",可連 CAD Tools Port 8100 |
| Skills 系統 | ✅ | workspace / global / community 三層;`skills audit` 安全審計 |
| Agent 邏輯 | ✅ | 完整 orchestration loop + intent routing + 工具分派 |
| 長期記憶 | ✅ | MEMORY.md / JSONL 檔案型;recall / store / forget / knowledge 工具 |
| 排程任務 | ✅ | Cron + webhook + MQTT + 外設觸發(SOPs)|
| 多頻道 | ✅ | 22+ 頻道,業界最廣覆蓋 |
| Web Dashboard | ✅ | React 19 + Vite 6,含 chat / memory / config / cron / tools / logs / cost |
| Multi-agent(Hands)| ✅ | 自主代理群集,定時執行 |
| Hardware 外設 | ✅ | ESP32 / STM32 / Arduino / RPi GPIO(超越其他所有 B 類方案)|
| RAG / 向量搜尋 | ❌ | 記憶體為檔案型(非 pgvector);無 Embedding API / Hybrid Search |
| pgvector 整合 | ❌ | 無 PostgreSQL 依賴,記憶層設計為輕量檔案型 |
| 自訂 SSE 三段格式 | ❌ | SA 規定的 `token/sources/done` 由 LangGraph 主架構提供 |
> ⚠️ **C4 條件符合**:MCP + Skills + Agent + 記憶 + 22+ 頻道 + Web Dashboard + Hands + Hardware 外設均齊備,功能廣度**超越 PicoClaw**;但 RAG/Embedding 缺失,仍需依賴主架構 pgvector。
---
**C5:低資源消耗**
| 指標 | ZeroClaw | 說明 |
| --- | --- | --- |
| 記憶體 | **<5 MB** | 超越 PicoClaw(<10 MB)與 IronClaw(Rust + PG)|
| 啟動時間 | **<10 ms** | 比 PicoClaw(<1秒)快兩個量級 |
| Binary 大小 | ~8.8 MB | 與 PicoClaw(~8 MB)相當 |
| 資料庫依賴 | ❌ 無 | 純檔案型記憶,無 PostgreSQL 服務常駐 |
| Docker | 選用 | 預設 native 執行,不消耗容器開銷 |
> ✅ **C5 完全符合**:B 類方案中**資源消耗最低**,<5MB RAM + <10ms 啟動,超越 PicoClaw。
---
**C6:公司 / 專案存續性**
ZeroClaw Labs 由 Harvard/MIT/Sundai.Club 社群成員主導,28.4k stars、199 位貢獻者,**130 個 release**(遠超所有評估方案),是目前**發版頻率最高**的 B 類方案。雖非傳統硬體公司背書(與 Sipeed/PicoClaw 不同),但社群活躍度與貢獻規模在所有評估方案中最高。存在仿冒網域問題,但官方 repo 聲明清楚。
> ✅ **C6 完全符合**
---
**C7:商用化 / 授權風險**
MIT OR Apache-2.0 雙授權,無商用限制。TRADEMARK.md 記錄商標規範,貢獻者自動在兩個授權下授予權利。
> ✅ **C7 完全符合**
---
#### ZeroClaw vs B 類其他方案對比
| 面向 | ZeroClaw | PicoClaw | IronClaw | nanobot |
| --- | --- | --- | --- | --- |
| 語言 | **Rust** | Go | Rust | Python |
| RAM | **<5 MB** | <10 MB | Rust輕+PG | >100 MB |
| 啟動 | **<10 ms** | <1 秒 | 快 | >30 秒 |
| Docker 強制 | ❌ 選用 | ❌ 選用 | ❌ 選用 | ❌ |
| Windows onboard | ⚠️ WSL2 建議 | ✅ 原生 system tray | ✅ Installer | ⚠️ WSL2 |
| Windows binary | ✅ x86_64 + Scoop | ✅ | ✅ | ⚠️ |
| llama.cpp | ✅ 自訂端點(官方)| ✅ api_base(官方)| ⚠️ NEAR AI OAuth 依賴 | ⚠️ custom(非官方)|
| MCP Client | ✅ | ✅ | ✅ | ✅ |
| RAG/向量 | ❌ 檔案型記憶 | ❌ | ✅ pgvector | ❌ |
| 頻道數量 | **22+(最多)** | 9 | Telegram/Slack等 | 多頻道 |
| Hardware 外設 | ✅ ESP32/RPi | ❌ | ❌ | ❌ |
| 發版頻率 | **130 releases(最高)** | 9 | 24 | ~10 |
**關鍵差異化**:ZeroClaw 在資源消耗(最低)、頻道覆蓋(最廣)、發版活躍度(最高)、Hardware 外設支援(唯一)上全面領先 PicoClaw,但 Windows onboard 精靈需 WSL2(PicoClaw 為原生 system tray)。
#### 評估矩陣(C1–C7)
| 準則 | 評級 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ | 單一 Rust binary;Docker 選用;無 PostgreSQL 強制;`native` runtime 為預設 |
| C2 Windows 支援 | ⚠️ | Windows x86_64 預編譯 binary + Scoop 套件管理均支援;但 onboard 精靈官方說明為 "Windows (via WSL2)" |
| C3 llama.cpp 支援 | ✅ | OpenAI-compatible 自訂端點(官方文件化),直連 `http://localhost:8080/v1` |
| C4 功能完整性 | ⚠️ | MCP + Skills + 22+ 頻道 + Web Dashboard + Hands + Hardware 外設齊備;缺 pgvector RAG(檔案型記憶)|
| C5 資源消耗 | ✅ | <5 MB RAM / <10 ms 啟動;B 類方案中**資源最低** |
| C6 公司存續性 | ✅ | 199 貢獻者,28.4k stars,130 releases,Harvard/MIT 社群主導,活躍度最高 |
| C7 商用風險 | ✅ | MIT OR Apache-2.0,無商用限制 |
#### SA 需求對照
| SA 需求 | ZeroClaw 現況 |
| --- | --- |
| LangGraph Agent 替換 | ⚠️ 附加模式最佳;超廣頻道覆蓋 + Hardware 外設為獨特優勢;RAG 仍需 LangGraph 主架構 |
| llama.cpp 連接 | ✅ OpenAI-compatible 自訂端點直連,官方支援路徑 |
| MCP Server Port 8100 | ✅ 原生 MCP Client,可直接連接 CAD Tools MCP Server |
| Windows 內網離線 | ⚠️ Windows binary 可用;onboard 精靈建議 WSL2;可手動設定 config.toml 繞過 |
| 非 Docker 部署 | ✅ `runtime.kind = "native"` 為預設,完全無 Docker |
| 多頻道 Bot | ✅ 22+ 頻道,B 類最廣覆蓋 |
| 排程任務 | ✅ Cron + SOPs + webhook + MQTT |
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| 技術適配性 | ⭐⭐⭐⭐ (4/5) | C1/C3/C5/C6/C7 全符合;C2 onboard 需 WSL2;C4 缺 RAG |
| 功能廣度 | ⭐⭐⭐⭐⭐ (5/5) | 22+ 頻道 + Hardware 外設 + Hands 多 Agent,B 類最廣 |
| 資源效率 | ⭐⭐⭐⭐⭐ (5/5) | <5 MB RAM / <10 ms 啟動,B 類最低 |
| 社群活躍度 | ⭐⭐⭐⭐⭐ (5/5) | 199 貢獻者,130 releases,最高發版頻率 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT OR Apache-2.0,無商用限制 |
| **綜合推薦** | ⚠️ **條件推薦(B 類次選)** | Windows onboard 需 WSL2 是主要限制;資源效率與功能廣度超越 PicoClaw |
**建議定位**:ZeroClaw 在資源效率(<5 MB/<10 ms,超越 PicoClaw)、頻道覆蓋(22+,B 類最廣)、發版活躍度(130 releases)、Hardware 外設支援(唯一)等維度全面領先所有 B 類方案。**主要限制**:onboard 精靈官方推薦路徑為 "Windows (via WSL2)",在 SA 的純 Windows 內網環境中需以預編譯 binary 搭配手動 config.toml 設定取代 onboard 精靈。若 Windows 初始化問題可接受,ZeroClaw 在附加 Bot 場景的**功能廣度與資源效率均優於 PicoClaw**,可考慮作為 PicoClaw 的替代方案;若需要最零摩擦的 Windows 原生體驗,PicoClaw(system tray)仍是首選。
---
### 方案13:OpenWork(different-ai/openwork)
#### 基本資訊
| 欄位 | 內容 |
| --- | --- |
| GitHub | https://github.com/different-ai/openwork |
| 星數 / 授權 | 12.3k ⭐ / MIT |
| 主要語言 | TypeScript 77.2%、JavaScript 10.3%、Rust 7.0%(Tauri)、CSS 4.0% |
| 最新版本 | v0.11.182(2 小時前,共 **1,010 個 release**!)|
| 貢獻者 | 46 人 |
| 主導組織 | different-ai(Benjamin Shafii 主導)|
| 官網 | https://openworklabs.com/ |
#### 專案定位
OpenWork 是 **Claude Cowork / Claude Codex(桌面版)的開源替代品**,本質是 [OpenCode](https://opencode.ai)(SST AI coding agent CLI)的 **Tauri 桌面 GUI 包裝層**。核心設計圍繞「將 agentic 程式碼工作流程打包為可重複、可產品化的流程」。它不是通用 Agent 框架,也不是多頻道 Bot,而是一款**桌面 AI 程式碼助理應用**。
**⚠️ 重要辨識**:OpenWork 的定位非常明確——替代 Claude Cowork(Anthropic 的桌面 AI 程式設計工具)。其整個設計圍繞:sessions / SSE 串流 / 執行計畫(todo timeline)/ permissions 審核 / 技能管理,這些均為**程式碼編輯工作流程**的核心元素,而非企業 AI 後端或文件查詢助理。
#### 架構示意
```
桌面 App(Tauri = Rust 殼 + TypeScript/React UI)
↓
OpenWork Server(openwork-orchestrator:npm install -g openwork-orchestrator)
├── Host mode:本地啟動 OpenCode + openwork-server(+ 可選 opencode-router)
└── Client mode:連接遠端 OpenCode server URL
↓
OpenCode CLI(opencode.ai:SST 的 AI coding agent,需獨立安裝)
├── Sessions(建立 / 選擇 session,發送 prompt)
├── SSE streaming(/event 訂閱,即時更新)
├── Execution plan(OpenCode todos 呈現為時間線)
├── Permissions(權限請求:allow once / always / deny)
├── Templates(儲存 / 重執行常見工作流程)
└── Skills(.opencode/skills;opkg install 安裝)
```
**安裝前置需求**:
- Node.js + pnpm(pnpm@10.27.0)
- Bun 1.3.9+
- Rust toolchain(for Tauri)+ Cargo
- OpenCode CLI(需 PATH 可存取:`opencode`)
- macOS:Xcode Command Line Tools
- Linux:WebKitGTK 4.1 dev packages
#### MEC-AI 關鍵準則逐項分析
**C1:非 Docker 原生安裝**
無 Docker 強制,但安裝前置需求繁複:`Node.js + pnpm + Bun + Rust toolchain + Cargo + OpenCode CLI` 均須先到位。官方提供下載點([openworklabs.com/download](https://openworklabs.com/download))與 GitHub Releases 預編譯 binary,可跳過原始碼編譯。AUR 套件(Arch)及 CLI orchestrator(`npm install -g openwork-orchestrator`)等多條安裝路徑並存。
> ⚠️ **C1 條件符合**:無 Docker 強制;但 OpenCode CLI 是強制前置依賴,且需 Node.js + pnpm 運行環境;預編譯桌面安裝包可降低複雜度。
---
**C2:支援 Windows**
Tauri 框架支援 Windows,GitHub Releases 內含 Windows 安裝包,且近期有 commit "dx: add windows arm64 pnpm dev support",確認 Windows ARM64 的開發支援。
> ✅ **C2 完全符合**:Tauri 跨平台(Windows / macOS / Linux),有 Windows 預編譯安裝包。
---
**C3:支援 llama.cpp(GGUF 本地推理)**
OpenWork 是 OpenCode 的 UI 層,LLM provider 支援完全取決於底層 OpenCode。OpenCode(SST 版本)主要設計為 Anthropic / OpenAI 的前端,是否支援 OpenAI-compatible local endpoint(如 llama.cpp)需查閱 OpenCode 文件。README 中未見明確的自訂端點設定,整體傾向**雲端 LLM 為主**。
> ⚠️ **C3 不確定**:未在 README 中找到明確的 OpenAI-compatible 自訂端點設定;LLM provider 取決於底層 OpenCode,本地 llama.cpp 連接路徑待驗證。
---
**C4:功能完整性(RAG + MCP + SKILLS + AGENT)**
| 子功能 | OpenWork 支援 | 說明 |
| --- | --- | --- |
| MCP Client | ⚠️ | 繼承 OpenCode 的 MCP 能力(若 OpenCode 支援);非 OpenWork 原生設計 |
| Skills 系統 | ✅ | `.opencode/skills` + `opkg install`;Skills Manager UI |
| Agent 邏輯 | ⚠️ | 全部依賴 OpenCode 底層;OpenWork 僅是 GUI 層 |
| RAG / 向量搜尋 | ❌ | 無任何 RAG / Embedding / pgvector 能力 |
| 多頻道 | ❌ | 桌面 GUI 應用,無 Telegram / Discord / WhatsApp 等頻道 |
| 排程任務 | ❌ | 無 cron / heartbeat |
| Web Dashboard SSE | ✅ | SSE `/event` 串流為核心功能 |
| Permissions 審核 | ✅ | allow once / always / deny 工具執行授權機制 |
| 程式碼 diff / 執行計畫 | ✅ | 程式碼場景核心功能 |
| **MEC-AI 適用性** | ❌ | **設計為程式碼助理,非文件查詢/CAD 工具助理** |
> ❌ **C4 不符合**:OpenWork 的功能集專為**程式碼編輯工作流程**設計,無 RAG/多頻道/排程,不適合 MEC-AI 的文件查詢 + CAD 工具整合場景。
---
**C5:低資源消耗**
| 指標 | OpenWork | 說明 |
| --- | --- | --- |
| 框架 | Tauri(Rust + WebKit)| 比 Electron 輕,使用系統 WebKit |
| Node.js 常駐 | ⚠️ | openwork-orchestrator 需 Node.js 運行環境 |
| OpenCode 進程 | 需常駐 | Host mode 需啟動並管理 OpenCode 進程 |
| 整體消耗 | 中等 | 明顯輕於 Electron,但重於純 Rust binary |
> ⚠️ **C5 條件符合**:Tauri 架構比 Electron 輕量,但需 Node.js + OpenCode 進程;對 OA 筆電屬中等負擔。
---
**C6:公司 / 專案存續性**
different-ai 是 Benjamin Shafii 主導的小型 AI 工具公司,12.3k stars,**1,010 個 release**(發版頻率極高,平均每天多次),46 位貢獻者。雖然規模較小,但持續活躍。
> ✅ **C6 符合**:活躍開發中,1,010 releases 顯示持續高頻迭代。
---
**C7:商用化 / 授權風險**
MIT 授權。
> ✅ **C7 完全符合**
---
#### MEC-AI 定位不符的根本原因分析
| SA 需求 | OpenWork 現況 | 適配性 |
| --- | --- | --- |
| 文件查詢 + pgvector RAG | ❌ 無任何向量/RAG 能力 | 根本不適用 |
| CAD Tools MCP Server | ⚠️ 繼承 OpenCode 的 MCP(若有)| 非設計目標 |
| 多用戶 / 多頻道通訊 | ❌ 單一桌面 GUI | 根本不適用 |
| llama.cpp 本地推理 | ⚠️ 取決於 OpenCode 支援 | 不確定 |
| Windows 內網離線 | ✅ | 符合 |
| 企業 AI 後端 API | ❌ 無後端 API 設計 | 根本不適用 |
**核心問題**:OpenWork 的設計目標是「程式設計師的桌面 AI 助理」(取代 Claude Cowork),而 MEC-AI 的目標是「機械工程師的文件查詢 + CAD 工具 AI 助理後端」。兩者的功能集、設計哲學、技術架構均有根本性差異。
#### 評估矩陣(C1–C7)
| 準則 | 評級 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ⚠️ | 無 Docker 強制;但需 Node.js + pnpm + Bun + Rust + OpenCode CLI 多重前置依賴 |
| C2 Windows 支援 | ✅ | Tauri 跨平台,Windows 預編譯安裝包存在 |
| C3 llama.cpp 支援 | ⚠️ | 取決於底層 OpenCode 的 LLM provider 支援;README 中未見明確自訂端點設定 |
| C4 功能完整性 | ❌ | 程式碼助理定位:無 RAG / 多頻道 / 排程;與 MEC-AI 場景根本不符 |
| C5 資源消耗 | ⚠️ | Tauri 比 Electron 輕;但需 Node.js + OpenCode 進程常駐 |
| C6 公司存續性 | ✅ | 12.3k stars,1,010 releases,活躍迭代 |
| C7 商用風險 | ✅ | MIT 授權 |
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐ (1/5) | 設計目標與 MEC-AI 根本不符 |
| 功能完整性(通用)| ⭐⭐ (2/5) | 程式碼場景功能完整;MEC-AI 所需功能幾乎全缺 |
| 安裝便利性 | ⭐⭐⭐ (3/5) | 預編譯安裝包可用;但多重前置依賴複雜 |
| 社群存續 | ⭐⭐⭐⭐ (4/5) | 高頻迭代,1,010 releases |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | MIT |
| **綜合推薦** | ❌ **不建議** | 設計定位根本不符 MEC-AI 需求 |
**建議定位**:OpenWork 是一款優秀的**桌面 AI 程式碼助理**(Claude Cowork 開源替代品),若 MEC-AI 未來需要為工程師提供「程式碼輔助編寫」功能,OpenWork 值得作為**程式開發輔助工具**單獨評估。但就 MEC-AI 當前核心需求(文件 RAG 查詢 + CAD MCP 工具整合 + llama.cpp 本地推理 + 多用戶後端 API)而言,OpenWork 的設計目標與 MEC-AI **根本不同**,不應列入 MEC-AI 架構選型考量。
---
### 方案 14:Cline
- **GitHub**:https://github.com/cline/cline
- **Stars**:59.2k ⭐(2026-03,已評估方案中**最高**)
- **分類**:A — 全棧 Chat 平台(IDE 嵌入式 AI Coding 助理子類型)
- **授權**:Apache 2.0(Cline Bot Inc. © 2026)✅
- **語言**:TypeScript 98.0%、JavaScript 1.2%
- **版本**:v3.75.0(244 releases,最近 2 天前更新)
- **貢獻者**:305 人(已評估方案中**最多**)
- **組織**:Cline Bot Inc.(商業公司,提供企業版 Enterprise 方案)
#### 專案定性
Cline 是一款**整合於 VS Code IDE 的自主 AI 程式碼助理擴充套件**(Extension)。以 `saoudrizwan.claude-dev` 發佈於 VS Code Marketplace,名稱取自「CLI aNd Editor」縮寫。其設計目標是讓開發者在 IDE 內進行**完整自主的程式開發任務**(建立/修改檔案、執行 Terminal 命令、操作瀏覽器、呼叫 MCP 工具),並在每個關鍵操作前請求使用者確認(human-in-the-loop)。
**與 OpenWork(方案13)的相似與差異**:
- **相似**:同樣定位為「AI 程式碼助理」,服務對象皆為軟體開發者
- **差異**:Cline 以 VS Code Extension 形式存在(非獨立桌面 App),更深度整合 IDE 環境;OpenWork 是 Tauri 獨立桌面應用包裝 OpenCode CLI
#### 架構概覽
```
VS Code IDE(側欄 Panel)
↓
Cline Extension(TypeScript)
├─ LLM API(OpenAI / Anthropic / OpenRouter / OpenAI-compatible)
│ └─ 支援 LM Studio / Ollama / llama.cpp(OpenAI-compatible endpoint)
├─ VS Code API(檔案讀寫、終端機、Linter 整合)
├─ Headless Browser(Computer Use,Claude Sonnet 特定功能)
├─ MCP Client(連接任意 MCP Server,亦可自動建立新 MCP Server)
└─ .clinerules(Project-level 規則自訂;類似 SKILLS 概念)
```
#### 功能分析
| 功能面向 | Cline 能力 | 備註 |
| --- | --- | --- |
| **Agent** | ✅ 完整多步驟自主 Agent 循環(分析 → 工具呼叫 → 觀察 → 繼續) | 核心功能;具備任務 Checkpoint / Compare / Restore |
| **MCP** | ✅ 原生 MCP Client;可連接社群 MCP Server,亦可自動建立自訂 MCP Server | 官方文件强調 MCP 擴充能力 |
| **llama.cpp / 本地 LLM** | ✅ 支援「任意 OpenAI-compatible API」,官方明確列舉 LM Studio / Ollama | 可指向 llama.cpp openai server(`--port 8080`) |
| **RAG** | ❌ 無內建文件向量化 / 語意搜尋功能 | 僅 `@url` / `@file` / `@folder` 手動上下文;非自動 RAG |
| **多頻道** | ❌ 僅 VS Code 側欄 Panel | 無 Web / LINE / Teams / API 多頻道支援 |
| **排程任務** | ❌ 無排程能力 | 完全手動觸發 |
| **SKILLS** | ⚠️ `.clinerules` 目錄可自訂規則(Project-level Instructions)| 概念接近但非正式 SKILLS 機制 |
| **多模態** | ⚠️ 支援圖片輸入(mockup 轉 UI);Browser Computer Use(Claude 限定) | 視覺能力依賴 Claude Sonnet;本地 llama.cpp 多模態視 LLM 模型而定 |
| **API 成本追蹤** | ✅ 全任務 token / API 費用即時追蹤 | 對 llama.cpp 本地推理無費用 |
| **企業版** | ✅ SSO(SAML/OIDC)、審計追蹤、VPC / Private Link、On-prem | 企業版付費;開源核心 Apache 2.0 |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ **符合** | VS Code Extension,從 VS Code Marketplace 安裝即可,無任何 Docker 依賴 |
| C2 Windows | ✅ **符合** | VS Code 在 Windows 上原生運行;GitHub CI 明確包含 Windows 測試(Windows CI runners) |
| C3 llama.cpp | ✅ **符合** | 官方明確支援「any OpenAI compatible API」,可直接指向 llama.cpp `--port 8080 --api-key dummy` 端點 |
| C4 功能完整 | ⚠️ **部分符合** | Agent ✅、MCP ✅;但 RAG ❌、多頻道 ❌、排程 ❌;功能完整性僅覆蓋 MEC-AI 子集 |
| C5 低資源 | ⚠️ **條件符合** | Extension 本身輕量(TypeScript,無 Docker / 無獨立 Server);但强依賴 VS Code IDE 常駐,無法作為無視窗 Server 部署 |
| C6 存續性 | ✅ **優異** | 59.2k stars(已評估最高)、305 貢獻者(已評估最多)、244 releases、Cline Bot Inc. 商業化路線清晰、企業版商業支撐 |
| C7 商用風險 | ✅ **低風險** | Apache 2.0 授權(Cline Bot Inc. © 2026);開源核心,企業功能另售,主功能無付費鎖定 |
#### MEC-AI 適用性分析
| 取代/強化場景 | 可行性 | 說明 |
| --- | --- | --- |
| 取代 MEC-AI 整體後端(FastAPI + LangGraph) | ❌ 不可行 | Cline 是 VS Code 插件,無法作為無頭(headless)多用戶後端 API 服務部署 |
| 取代 Agent 框架(LangGraph) | ❌ 不適合 | Cline Agent 循環耦合於 VS Code 環境,無法嵌入 Python FastAPI 後端進行程式化呼叫 |
| 提供 RAG 查詢(文件問答) | ❌ 無此功能 | 缺乏文件向量化與語意搜尋能力 |
| 整合 CAD MCP Server | ✅ 技術可行 | Cline 可連接自訂 MCP Server(Port 8100 CAD Tools);但使用情境為工程師在 VS Code 內手動操作,非 MEC-AI 的 API 後端自動化 |
| 作為 MEC-AI 開發團隊工具 | ✅ **高度推薦** | 可協助工程師以 AI 輔助撰寫 MEC-AI 系統程式碼(FastAPI、LangGraph、前端 React 等),定位為**開發輔助工具**而非產品本體 |
#### 關鍵限制(MEC-AI 場景)
1. **VS Code 強依賴**:Cline 必須在 VS Code IDE 環境內運行,無法作為獨立後端服務部署於 OA 伺服器
2. **無 RAG 能力**:MEC-AI 核心需求之一(技術文件語意查詢)Cline 完全無法滿足
3. **單一頻道(IDE 側欄)**:MEC-AI 需要 Web 前端 + LINE Bot + Teams 等多頻道整合;Cline 僅提供 VS Code 側欄介面
4. **無法多用戶**:Cline 為單人開發者工具;MEC-AI 服務對象為機械工程部門多位使用者
5. **Claude 最佳化設計**:Computer Use(Browser)能力強依賴 Claude Sonnet,以 llama.cpp 本地模型替換後瀏覽器自動化功能受限
#### 獨特優勢(開源生態觀點)
儘管 Cline 不適合作為 MEC-AI 產品架構,其在**開源 AI 程式碼助理**領域有以下突出優勢:
- **59.2k stars**:GitHub 上最受歡迎的開源 AI Coding 助理之一(超越 OpenWork 的 12.3k)
- **MCP 生態先驅**:最早大力推廣 MCP(Model Context Protocol)的開源工具之一,社群 MCP Server 大量以 Cline 為測試基準
- **本地 LLM 友善**:明確支援 LM Studio / Ollama / 任意 OpenAI-compatible API,離線部署路徑清晰
- **Apache 2.0**:授權最乾淨,商業使用無風險
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐ (1/5) | VS Code 插件形式,根本不符合企業後端部署需求 |
| 功能完整性(通用)| ⭐⭐⭐⭐ (4/5) | Agent + MCP + 本地 LLM 支援完整;欠缺 RAG 與多頻道 |
| 安裝便利性 | ⭐⭐⭐⭐⭐ (5/5) | VS Code Marketplace 一鍵安裝,無任何額外依賴 |
| 社群存續 | ⭐⭐⭐⭐⭐ (5/5) | 59.2k stars,305 貢獻者,商業公司背書 |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | Apache 2.0,授權風險最低 |
| **綜合推薦** | ❌ **MEC-AI 架構選型不建議** | 設計定位根本不符(IDE 插件 vs 企業後端)|
**建議定位**:Cline 是目前開源社群最頂尖的 **VS Code AI Coding 助理**,以 59.2k stars 與 Apache 2.0 授權成為開發者生產力工具的首選。就 MEC-AI **產品架構**而言,Cline 無法取代或強化任何 MEC-AI 核心層(Agent 後端 / RAG / 多頻道 / 多用戶 API)。但就 **MEC-AI 開發團隊的工具選型**而言,強烈建議將 Cline 作為工程師日常開發輔助工具,用於撰寫 FastAPI、LangGraph Agent、React 前端等 MEC-AI 系統程式碼,以提升開發效率。**MEC-AI 架構選型結論:不應列入候選方案,但推薦作為開發團隊工具**。
---
### 方案 15:Aider
- **GitHub**:https://github.com/Aider-AI/aider
- **Stars**:42.3k ⭐(2026-03)
- **分類**:A — 全棧 Chat 平台(終端機 AI Pair Programming 助理子類型)
- **授權**:Apache 2.0(Added 3 years ago)✅
- **語言**:Python 80.0%、CSS 4.1%、Shell 4.0%
- **版本**:v0.86.0(93 releases,最近更新 last week)
- **貢獻者**:169 人
- **組織**:Aider-AI(paul-gauthier 為主要作者,個人主導專案)
#### 專案定性
Aider 是一款**在終端機(Terminal)中運行的 AI Pair Programming 工具**,定位為「AI 結對程式設計師(AI pair programming in your terminal)」。與 Cline(VS Code Extension)和 OpenWork(Tauri 桌面 App)不同,Aider 是**純 Python CLI 工具**,透過 `pip install` 安裝,在任何有 Python 的環境下均可運行(包含 Windows PowerShell / CMD)。
**三大同類工具對比(方案13/14/15)**:
| 工具 | 形式 | Stars | 主力語言 |
|---|---|---|---|
| OpenWork(方案13)| Tauri 桌面 App | 12.3k | TypeScript + Rust |
| Cline(方案14)| VS Code Extension | 59.2k | TypeScript |
| Aider(方案15)| Terminal CLI | 42.3k | Python |
#### 架構概覽
```
Terminal(Windows PowerShell / CMD / bash)
↓
aider CLI(Python)
├─ LLM API(OpenAI / Anthropic / DeepSeek / Google Gemini
│ / OpenRouter / 任意 OpenAI-compatible API)
│ └─ 支援本地端 LM Studio / Ollama / llama.cpp(OpenAI-compatible)
├─ repo-map(Tree-sitter 全倉庫程式碼 AST 分析索引)
├─ Git integration(自動 commit,每次修改記錄 diff)
├─ Lint & Test runner(修改後自動執行 Linter / Test;失敗自動修正)
└─ IDE Watch mode(在程式碼中加入 AI 指令注釋,Aider 自動偵測執行)
```
#### 功能分析
| 功能面向 | Aider 能力 | 備註 |
| --- | --- | --- |
| **Agent** | ✅ 完整對話式 Agent 循環(分析 → 修改 → Lint/Test → 自動修正) | 每步修改自動 Git commit |
| **MCP** | ❌ 無 MCP Client / Server 支援 | 無 MCP 整合能力,工具擴充靠 Python |
| **llama.cpp / 本地 LLM** | ✅ 支援「任意 OpenAI-compatible API」 | 官方文件說明可連 LM Studio / Ollama;亦可連 llama.cpp OpenAI server |
| **RAG** | ❌ 無文件向量化 / 語意搜尋 | 以 repo-map(Tree-sitter AST)提供程式碼結構理解,非語意 RAG |
| **多頻道** | ❌ 僅 Terminal 介面 | 無 Web / LINE / Teams / API 多頻道 |
| **排程** | ❌ 無排程能力 | 完全手動觸發 |
| **Git 整合** | ✅ 原生 Git 支援,自動 commit diff | 所有 B 類 / A 類方案中最完整的 Git 工作流 |
| **Repo Map** | ✅ 整倉庫 AST 索引(tree-sitter,100+ 語言) | 大型 codebase 的上下文管理能力突出 |
| **多模態** | ✅ 支援圖片 / 截圖上傳作為上下文(`--image`)| 本地 llama.cpp 多模態視 LLM 模型而定 |
| **聲音輸入** | ✅ Voice-to-code 支援(語音轉文字觸發編碼指令)| 非核心功能 |
| **IDE 整合** | ✅ Watch mode(在程式碼中加 `#ai` 注釋;Aider 持續監聽執行)| 間接整合任何 IDE,不限 VS Code |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ **符合** | `pip install aider-install; aider-install` 或 `pipx install aider-chat`;完全無 Docker 依賴 |
| C2 Windows | ✅ **符合** | Python 跨平台;官方支援 Windows(PowerShell / CMD);有 Windows 專屬安裝指引 |
| C3 llama.cpp | ✅ **符合** | 官方文件明確支援「任意 OpenAI-compatible API」;可透過 `--openai-api-base http://localhost:8080` 直連 llama.cpp server |
| C4 功能完整 | ❌ **不符合** | Agent ✅ 但 MCP ❌、RAG ❌、多頻道 ❌、排程 ❌;C4 核心功能僅覆蓋 MEC-AI 部分需求 |
| C5 低資源 | ⚠️ **條件符合** | Python CLI 無獨立伺服器,啟動資源低;但 Python 環境 + Tree-sitter + 各依賴套件有一定 install footprint(~300MB pip deps);無持續性背景服務 |
| C6 存續性 | ✅ **良好** | 42.3k stars,169 貢獻者,paul-gauthier 個人主導但高一致性;Apache 2.0;社群有 Discord + 定期 release |
| C7 商用風險 | ✅ **低風險** | Apache 2.0;純開源,無商業付費層 |
#### Aider 獨特優勢(與 Cline 對比)
| 比較面向 | Aider | Cline |
|---|---|---|
| **環境依賴** | Python only(跨平台 CLI)| VS Code IDE(必須安裝)|
| **MCP 支援** | ❌ | ✅ 原生 |
| **Git 整合** | ✅ 原生(自動 commit diff)| ⚠️ 透過 VS Code Git 插件 |
| **Repo Map** | ✅ Tree-sitter 全倉庫 AST | ⚠️ 有限 codebase 結構分析 |
| **CI/CD 整合** | ✅ 可在非 GUI 伺服器環境執行 | ❌ 需要 VS Code GUI 環境 |
| **安裝複雜度** | ✅ `pip install` 即可 | ⚠️ 需要 VS Code + Extension |
| **stars** | 42.3k | 59.2k |
#### MEC-AI 適用性分析
| 取代/強化場景 | 可行性 | 說明 |
| --- | --- | --- |
| 取代 MEC-AI 整體後端(FastAPI + LangGraph) | ❌ 不可行 | Aider 是單人 CLI 工具,無多用戶管理、無 API 端點、無 RAG |
| 取代 Agent 框架(LangGraph) | ❌ 不適合 | Aider Agent 循環設計為程式碼修改場景,無法嵌入通用 FastAPI 服務作為可程式化 Agent |
| 提供 RAG 查詢(文件問答) | ❌ 無此功能 | Repo Map 是程式碼 AST 索引,非文件語意 RAG |
| 整合 MCP / CAD 工具 | ❌ 無 MCP 支援 | Aider 無法作為 MCP Client |
| **作為 MEC-AI 開發團隊工具** | ✅ **高度推薦** | pip 安裝即用,適合工程師在終端機撰寫 FastAPI / LangGraph / React 等 MEC-AI 程式碼;對無 VS Code 偏好者(如 vim/neovim 使用者)尤其適合 |
| **CI/CD 自動程式碼修改** | ⚠️ 技術可行 | Aider 可在 CI 環境(GitHub Actions)中自動修改程式碼並 commit,但不適合 MEC-AI 產品主流程 |
#### 與同類方案(A 類 Coding 助理)最終對比
| 方案 | MCP | RAG | 多用戶後端 | 本地 LLM | 安裝複雜度 | 適合 MEC-AI 產品 |
|---|---|---|---|---|---|---|
| OpenWork(方案13)| ❌ | ❌ | ❌ | ⚠️ | 高(Node+Bun+Rust) | ❌ |
| Cline(方案14)| ✅ | ❌ | ❌ | ✅ | 中(需 VS Code)| ❌ |
| Aider(方案15)| ❌ | ❌ | ❌ | ✅ | 低(pip install)| ❌ |
三者結論一致:均不適合 MEC-AI 企業後端架構,但可作為開發工具。其中 Cline(MCP ✅)與 Aider(pip 輕量安裝 ✅)各有其工具優勢。
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐ (1/5) | 開發者工具,非企業後端,根本定位不符 |
| 功能完整性(通用)| ⭐⭐⭐ (3/5) | Agent + Git + Repo Map 突出;但無 MCP / RAG / 多頻道 |
| 安裝便利性 | ⭐⭐⭐⭐⭐ (5/5) | `pip install` 最低門檻,跨平台即用 |
| 社群存續 | ⭐⭐⭐⭐ (4/5) | 42.3k stars,paul-gauthier 個人主導 → 單點風險 |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | Apache 2.0,商業風險最低 |
| **綜合推薦** | ❌ **MEC-AI 架構選型不建議** | 定位根本不符(終端機 Coding 工具 vs 企業後端)|
**建議定位**:Aider 是開源 AI Coding 助理中**安裝最輕量、最易上手**的選擇(`pip install`,無 Docker 無 VS Code 依賴)。對於 MEC-AI 開發團隊中偏好終端機工作流(vim / neovim / Emacs)的工程師,Aider 是 Cline 的最佳替代開發工具。但就 MEC-AI **產品架構**選型而言,Aider 的設計目標(終端機互動式程式開發)與 MEC-AI 企業後端需求(文件 RAG + CAD MCP + 多用戶 API)根本不符,**不應列入 MEC-AI 架構候選方案**。
---
### 方案 16:kotaemon
- **GitHub**:https://github.com/Cinnamon/kotaemon
- **Stars**:25.2k ⭐(2026-03)
- **分類**:E — RAG/向量引擎(文件問答 Web UI + RAG Pipeline 子類型)
- **授權**:Apache 2.0 ✅
- **語言**:Python 91.5%、HTML 2.9%、Shell 2.2%、Batchfile 1.3%
- **版本**:v0.11.2(67 releases,3 weeks ago;最近一次 commit 為「feat: support MCP tools」)
- **貢獻者**:46 人
- **組織**:Cinnamon(日越 AI 公司,kotaemon.support@cinnamon.is)
#### 專案定性
kotaemon 是一款**開源 RAG 文件問答 Web UI**,定位為「An open-source clean & customizable RAG UI for chatting with your documents」。採用 Gradio 作為前端 UI 框架,提供完整的文件向量化、Hybrid 搜尋(全文+向量+Rerank)、多模態解析、多用戶管理等功能。專案同時服務兩種使用者:
- **End users**:使用 kotaemon 的現成 Web App 進行文件問答
- **Developers**:透過 `import kotaemon` 將 RAG Pipeline 元件嵌入自有系統
#### 架構概覽
```
Browser(Gradio Web UI)
↓
kotaemon Backend(Python)
├─ Document Ingestion Pipeline
│ ├─ 多模態解析:Docling(本地)/ Azure Document Intelligence / Adobe PDF Extract
│ └─ 向量化:本地 fastembed / Ollama Embedding / 外部 API
├─ Indexing Pipeline
│ ├─ 向量索引(pgvector / Chroma / LanceDB / Qdrant 等)
│ ├─ 全文索引(BM25)
│ ├─ GraphRAG:NanoGraphRAG / LightRAG / MS GraphRAG
│ └─ Reranker(Cohere / cross-encoder / VoyageAI)
├─ Reasoning Pipeline
│ ├─ ReAct / ReWOO Agent
│ ├─ Question Decomposition(多跳推理)
│ └─ MCP Client(v0.11.2 最新新增)
└─ LLM 整合:OpenAI / Azure / Ollama / llama-cpp-python / 任意 API
```
#### 功能分析
| 功能面向 | kotaemon 能力 | 備註 |
| --- | --- | --- |
| **RAG(核心)** | ✅ Hybrid RAG(全文 BM25 + 向量搜尋 + Rerank);多向量 DB 支援 | E 類核心價值 |
| **GraphRAG** | ✅ NanoGraphRAG / LightRAG / MS GraphRAG 三種 Graph 索引 | 超越簡單語意搜尋的複雜推理 |
| **文件解析** | ✅ 多模態:PDF / HTML / MHTML / XLSX / 圖表 / 表格;Docling 本地 OCR | C4 文件解析能力最強 |
| **MCP** | ✅ v0.11.2 新增 MCP Tools 支援(3 weeks ago) | 可連接 CAD Tools MCP Server |
| **Agent** | ✅ ReAct / ReWOO / Question Decomposition | 複雜多跳問題推理 |
| **llama.cpp** | ✅ `llama-cpp-python` 明確列舉為本地 LLM 支援方案 | 直接整合,非 OpenAI-compatible 間接包裝 |
| **本地 Embedding** | ✅ fastembed(本地,無需外部 API);nomic-embed-text 相容 | MEC-AI 的 nomic-embed-text 可直接替換 |
| **多用戶** | ✅ 內建使用者管理、私有/公開文件集合、SSO 登入(企業版)| 符合 MEC-AI 多用戶需求 |
| **引用與溯源** | ✅ 詳細引用 + PDF viewer 高亮顯示(置信分數)| MEC-AI 文件查詢溯源需求 |
| **多頻道** | ❌ 僅 Gradio Web UI | 無 LINE / Teams / API 多頻道 |
| **排程** | ❌ 無排程能力 | 完全手動觸發 |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ **符合** | Docker 為「Recommended」但明確有「Without Docker」路徑:Option 1 (uv)、Option 2 (conda)、Option 3 (pip + git install)。Docker **非必要** |
| C2 Windows | ⚠️ **條件符合** | Python 跨平台,conda/pip 在 Windows 原生可執行;但主要安裝腳本(`run_uv.sh`)為 bash shell;有 Batchfile(`.bat`)存在,但文件主要以 Linux/Mac 描述。Windows 可用,需手動安裝步驟 |
| C3 llama.cpp | ✅ **符合** | 官方文件明確列舉 `llama-cpp-python` 作為本地 LLM 方案;Ollama 亦支援(間接使用 llama.cpp 後端)|
| C4 功能完整 | ✅ **符合** | RAG ✅、MCP ✅(v0.11.2)、Agent(ReAct/ReWOO)✅、多用戶 ✅、多模態 ✅;唯無多頻道 / 無排程 |
| C5 低資源 | ⚠️ **條件符合** | Python + Gradio 全棧服務,比純 CLI 工具重量較高;但無硬體加速要求,可在 CPU-only 環境運行(llama-cpp-python CPU 推理);本地 fastembed 輕量 |
| C6 存續性 | ✅ **良好** | 25.2k stars,Cinnamon 公司支撐,67 releases,近期仍活躍(3 週前 commit)|
| C7 商用風險 | ✅ **低風險** | Apache 2.0,無付費功能鎖定,SSO 為開源版亦支援(sso_app.py 存在於倉庫)|
#### MEC-AI 適用性分析——E 類首選理由
kotaemon 是迄今評估的所有方案中,**最直接對應 MEC-AI 文件 RAG 需求**的方案。五點核心符合:
**① Hybrid RAG 完整實現**
MEC-AI SA 文件的 pgvector 方案僅提供基本向量搜尋。kotaemon 開箱即用提供:
- BM25 全文搜尋 + 向量搜尋 → **Hybrid Search(Fusion)**
- Reranker(cross-encoder / Cohere / VoyageAI)→ 精準排序
- 效果顯著優於裸 pgvector
**② GraphRAG 支援**
NanoGraphRAG / LightRAG 使文件問答能跨越段落邊界,進行實體關係推理——適合工程技術文件的複雜問題(如「這個規格與哪些 CAD 工序相關?」)
**③ MCP 原生整合(v0.11.2)**
最新版本加入 MCP Tools 支援,可與 MEC-AI 的 CAD Tools MCP Server(Port 8100)整合,在 RAG 問答流程中自動呼叫 CAD 工具
**④ llama-cpp-python 本地推理**
與 MEC-AI 的 llama.cpp 策略完全一致;Qwen2.5-VL 7B GGUF 可直接透過 llama-cpp-python 接入 kotaemon
**⑤ 本地 Embedding(fastembed)**
fastembed 支援 nomic-embed-text 同類輕量 Embedding 模型,可在無 GPU 環境下達到合理效果
#### 整合路徑建議
| 整合模式 | 可行性 | 說明 |
| --- | --- | --- |
| **完整取代 MEC-AI RAG 層** | ✅ 可行 | 將 kotaemon 作為獨立 RAG 服務部署,MEC-AI FastAPI 透過 kotaemon REST API 查詢文件 |
| **Library 整合** | ✅ 可行 | `pip install kotaemon`,在 MEC-AI LangGraph Pipeline 中 import kotaemon 的 RAG 元件(Retriever / Reranker)|
| **並行部署(雙系統)** | ✅ 推薦 | kotaemon 負責文件管理 + RAG 查詢;MEC-AI FastAPI 負責 Agent 協調 + CAD MCP;兩系統透過 REST API 通訊 |
| **取代 MEC-AI 整體架構** | ❌ 不適合 | kotaemon Gradio UI 與 MEC-AI React 前端衝突;kotaemon 無法取代 LangGraph Agent 狀態機 |
#### 主要限制
1. **單一 Web UI 頻道**:kotaemon 使用 Gradio,MEC-AI 有自己的 React 前端,兩者 UI 衝突;若要整合需以 API 模式運作,kotaemon UI 設計並非為 API-first
2. **Windows 安裝腳本**:主要 `run_uv.sh` 為 bash 腳本,Windows 需手動 conda/pip 安裝,相較 Linux/Mac 步驟較繁瑣
3. **無排程文件批次索引**:kotaemon 沒有定時爬取/批次更新文件的排程機制,需手動上傳
4. **GraphRAG 限制**:MS GraphRAG 僅支援 OpenAI / Ollama API,不支援純 llama-cpp-python 後端;NanoGraphRAG 則無此限制
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐⭐⭐⭐ (4/5) | RAG 核心需求完整覆蓋;Gradio UI 衝突與無排程是主要減分項 |
| 功能完整性(通用)| ⭐⭐⭐⭐⭐ (5/5) | Hybrid RAG + GraphRAG + MCP + 多模態 + 多用戶 + llama-cpp |
| 安裝便利性 | ⭐⭐⭐ (3/5) | 非 Docker 路徑可行,但 Windows 需手動步驟 |
| 社群存續 | ⭐⭐⭐⭐ (4/5) | Cinnamon 公司支撐,25.2k stars,持續活躍 |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | Apache 2.0 |
| **綜合推薦** | ✅ **E 類首選:強烈建議作為 MEC-AI RAG 層取代/強化方案** | |
**建議定位**:kotaemon 是目前評估的所有方案中,**最直接強化 MEC-AI 文件 RAG 能力**的選擇,建議以**並行部署模式**整合:kotaemon 作為文件 RAG 服務(負責文件上傳、向量化、Hybrid Search、GraphRAG、Reranker),MEC-AI FastAPI 作為 Agent 協調層(透過 REST API 呼叫 kotaemon 的查詢端點)。主要待驗證項目:Windows conda/pip 安裝流程完整性,以及 kotaemon REST API 查詢端點的自訂整合可行性。
---
### 方案 17:deepagents
- **GitHub**:https://github.com/langchain-ai/deepagents
- **Stars**:16.8k ⭐(2026-03)
- **分類**:B — Agent 框架(LangGraph 原生 Agent Harness)
- **授權**:MIT ✅
- **語言**:Python 99.4%
- **版本**:deepagents==0.4.12(74 releases,3 days ago;持續高頻更新)
- **貢獻者**:101 人(包含 LangChain 核心成員 hwchase17、eyurtsev)
- **組織**:langchain-ai(LangChain 官方組織,Harrison Chase 團隊)
#### 專案定性
deepagents 是 **langchain-ai 官方推出的「開箱即用 Agent Harness」**,定位為「The batteries-included agent harness」。核心設計理念:不需要自行組裝 Prompt、工具與上下文管理,`create_deep_agent()` 即可獲得一個立即可用的、完整功能的 Agent。
**關鍵技術特點**:`create_deep_agent()` **返回一個編譯完成的 LangGraph graph**——這意味著 deepagents 與 MEC-AI 的 LangGraph 技術棧**完全相容**,可直接嵌入 MEC-AI 的 FastAPI 後端使用。
**靈感來源**:README 明確說明「This project was primarily inspired by Claude Code」——定位為通用目的 Agent,而非僅限程式碼助理。
#### 架構概覽
```
create_deep_agent() → Compiled LangGraph Graph
├─ Planning:write_todos(任務分解與追蹤)
├─ Filesystem:read_file / write_file / edit_file / ls / glob / grep
├─ Shell:execute(命令執行,含 Sandboxing)
├─ Sub-agents:task(子 Agent 委派,獨立 context window)
├─ Context Management:自動摘要(對話過長時)
├─ MCP:langchain-mcp-adapters(原生支援)
└─ 自訂擴充:tools=[my_custom_tool]、system_prompt 可覆寫
```
```python
# 最簡用法
from deepagents import create_deep_agent
agent = create_deep_agent()
result = agent.invoke({"messages": [...]})
# 自訂 LLM(任意 OpenAI-compatible)
from langchain.chat_models import init_chat_model
agent = create_deep_agent(
model=init_chat_model("openai:gpt-4o"), # 可替換為 llama.cpp 端點
tools=[my_custom_tool],
system_prompt="你是機械工程文件助理",
)
```
#### 功能分析
| 功能面向 | deepagents 能力 | 備註 |
| --- | --- | --- |
| **Agent(核心)** | ✅ 完整 LangGraph 狀態機 Agent;Planning + Sub-agents + Context 管理 | `create_deep_agent()` 直接返回 LangGraph graph |
| **MCP** | ✅ 透過 `langchain-mcp-adapters` 原生支援 | **與 MEC-AI 使用相同依賴**(langchain-mcp-adapters)|
| **llama.cpp** | ✅ Provider agnostic;`init_chat_model` 支援任意 OpenAI-compatible API | 可直連 llama.cpp `--port 8080 --api-key dummy` |
| **Sub-agents** | ✅ `task` 工具:委派子任務至獨立 context window | 多 Agent 協作能力 |
| **Planning** | ✅ `write_todos` 任務分解追蹤 | 結構化任務規劃 |
| **Filesystem** | ✅ 完整 CRUD(read/write/edit/ls/glob/grep) | 設計原為程式碼 Agent,對文件管理有用 |
| **Shell 執行** | ⚠️ `execute` 工具,含 Sandboxing | **企業環境需評估 Shell 執行權限範圍** |
| **RAG** | ❌ 無內建 RAG | 需自行添加 RAG 工具(如 kotaemon REST API)|
| **多頻道** | ❌ 僅 Python SDK + CLI TUI | 無 Web UI / LINE / Teams |
| **Context 管理** | ✅ 自動摘要(對話過長);大輸出存 file | LangGraph Checkpointer 支援 |
| **Headless 模式** | ✅ CLI `--headless`,可用於 CI/CD 自動化 | 批次任務腳本化 |
| **Web Search** | ✅ CLI 版含 Web Search | 線上資訊接地 |
| **Persistent Memory** | ✅ CLI 版含 persistent memory | 跨 session 記憶 |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ **符合** | `pip install deepagents` 或 `uv add deepagents`,**無任何 Docker 依賴** |
| C2 Windows | ✅ **符合** | Python 跨平台;CLI 安裝腳本為 bash,但 SDK pip install 在 Windows 原生可用;Windows PowerShell 可直接執行 |
| C3 llama.cpp | ✅ **符合** | 官方說明「provider agnostic,works with any LLM that supports tool calling,including both frontier and open models」;透過 `init_chat_model` 接受任意 OpenAI-compatible API |
| C4 功能完整 | ⚠️ **部分符合** | Agent ✅、MCP ✅、Planning ✅、Sub-agents ✅;但 RAG ❌、多頻道 ❌、排程 ❌ |
| C5 低資源 | ✅ **符合** | Python SDK,無獨立伺服器,無 Docker;LangGraph Checkpointer 可用 SQLite(輕量)|
| C6 存續性 | ✅ **優異** | langchain-ai 官方組織(業界頭部 LLM 框架);16.8k stars,101 貢獻者(含核心 LangChain 開發者);4 hours ago 更新 |
| C7 商用風險 | ✅ **低風險** | MIT 授權,100% 開源,無付費功能鎖定 |
#### MEC-AI 適用性分析——B 類新入選理由
deepagents 與 MEC-AI 技術棧的相容性是目前 B 類方案中**最高**的,原因如下:
**① LangGraph Native(最核心優勢)**
MEC-AI SA 文件指定使用「LangGraph 0.3+ Agent」。deepagents 的 `create_deep_agent()` **直接返回一個 compiled LangGraph graph**。這意味著:
- 可以直接替換 MEC-AI 目前的 LangGraph Agent 定義
- 繼承所有 LangGraph 特性:streaming、studio、checkpointers、狀態持久化
- 無縫整合 MEC-AI 現有的 FastAPI + LangGraph 架構
**② 相同 MCP 依賴**
MEC-AI SA 文件使用 `langchain-mcp-adapters` 連接 CAD Tools MCP Server。deepagents **也使用完全相同的 langchain-mcp-adapters**,代表 CAD MCP Server(Port 8100)可直接插入 deepagents 的工具鏈,**零改動成本**。
**③ Provider Agnostic**
`init_chat_model("openai:gpt-4o")` 的 `openai:` 前綴可替換為任意 OpenAI-compatible endpoint。MEC-AI 的 llama.cpp server 可直接接入。
**④ Sub-agents 能力**
MEC-AI 若未來需要多步驟複雜任務(如:先查詢文件 → 再呼叫 CAD 工具 → 再生成報告),deepagents 的 `task` Sub-agent 工具提供天然的任務委派架構。
#### 主要限制
1. **無內建 RAG**:需自行添加文件向量搜尋工具(建議與 kotaemon REST API 整合)
2. **Shell 執行安全**:`execute` 工具預設允許 Shell 命令執行。MEC-AI 為企業內網環境,需在工具層明確限制執行範圍(不應開放任意 Shell 命令)
3. **設計初衷為 Coding Agent**:雖非硬限制,但預設工具(filesystem/shell)偏向程式開發,需替換為 MEC-AI 相關工具(CAD MCP、文件查詢)
4. **CLI 設計限制**:CLI TUI 介面(類似 Claude Code)與 MEC-AI 的 React 前端整合需透過 SDK 模式而非 CLI 模式
#### 與 B 類現有方案對比
| 方案 | LangGraph 原生 | MCP | llama.cpp | Docker 非必要 | Windows | В 類建議 |
|---|---|---|---|---|---|---|
| PicoClaw | ❌(Go) | ✅ | ✅ api_base | ✅ | ✅ | ✅ 首選 |
| **deepagents** | **✅(Python)** | **✅** | **✅** | **✅** | **✅** | **⚠️ 強力推薦(LangGraph 直接取代)**|
| ZeroClaw | ❌(Rust) | ✅ | ✅ | ✅ | ⚠️ | ⚠️ 次選 |
| IronClaw | ❌(Rust) | ✅ | ⚠️ | ⚠️ | ✅ | ⚠️ 條件 |
| Langflow | ❌(視覺化) | ✅ | ⚠️ | ✅ | ✅ | ⚠️ |
**deepagents 的核心差異**:其他 B 類方案皆需「橋接」到 LangGraph(MEC-AI 的技術棧),而 deepagents 本身就是 LangGraph — **取代成本最低**。
#### 整合路徑建議
| 整合模式 | 可行性 | 說明 |
| --- | --- | --- |
| **直接取代 MEC-AI LangGraph Agent** | ✅ 最推薦 | 將 MEC-AI 的 `langgraph_agent` 替換為 `create_deep_agent(model=llama_cpp_client, tools=[cad_mcp_tools, kotaemon_rag_tool])`;保持 FastAPI 不變 |
| **自訂工具擴充** | ✅ 可行 | 添加 kotaemon RAG 查詢工具、移除 filesystem/shell 預設工具 |
| **Sub-agent 多步驟工作流** | ✅ 可行 | 主 Agent 協調 → Sub-agent 執行 CAD 查詢 + 文件搜尋 |
| **完整取代後端架構** | ⚠️ 不建議 | deepagents 為 Library,不提供 FastAPI Web Server;仍需 MEC-AI FastAPI 作為 HTTP 層 |
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐⭐⭐⭐ (4/5) | LangGraph 原生整合 + 相同 MCP 依賴;主要缺 RAG |
| 功能完整性(Agent)| ⭐⭐⭐⭐⭐ (5/5) | Planning + Sub-agents + MCP + Context 管理全備 |
| 安裝便利性 | ⭐⭐⭐⭐⭐ (5/5) | `pip install deepagents`,無任何額外依賴 |
| 社群存續 | ⭐⭐⭐⭐⭐ (5/5) | langchain-ai 官方,業界頂級組織背書 |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | MIT |
| **綜合推薦** | ⚠️ **強力條件推薦:B 類 LangGraph 直接取代方案** | |
**建議定位**:deepagents 是 **B 類方案中與 MEC-AI 技術棧相容性最高**的選擇。建議整合路徑:以 `create_deep_agent(model=llama_cpp_endpoint, tools=[cad_mcp_server_tools, kotaemon_rag_query_tool])` **直接取代 MEC-AI 現有 LangGraph Agent 定義**,配合 kotaemon(E 類首選)提供 RAG 能力,形成「deepagents(B)+ kotaemon(E)」的互補架構。主要評估項目:Shell `execute` 工具在 MEC-AI 企業環境的安全範圍設定,以及預設 Filesystem 工具是否與 MEC-AI 工作流相符。
---
### 方案 18:onyx
- **GitHub**:https://github.com/onyx-dot-app/onyx
- **Stars**:18k ⭐(2026-03;前身為 Danswer)
- **分類**:A — 全棧 Chat 平台(企業級 AI 知識平台子類型)
- **授權**:MIT(Community Edition)/ 商業 Enterprise Edition(部分功能)
- **語言**:Python 63.3%、TypeScript 31.0%、Go 1.5%
- **版本**:v3.0.4(149 releases,3 days ago;8 hours ago 最新 commit「fix: windows install improvements」)
- **貢獻者**:198 人
- **組織**:onyx-dot-app(前身 Danswer,VC 資助商業公司,有 Cloud SaaS 版本)
#### 專案定性
Onyx 是一個**功能最完整的開源 AI 知識平台**,定位為「Open Source AI Platform — AI Chat with advanced features that works with every LLM」。集成 Chat UI、企業 RAG(hybrid-search + knowledge graph)、Agents、MCP、Deep Research、40+ 知識來源連接器,幾乎是迄今評估的 A 類方案中**功能密度最高**的一個。
原名 **Danswer**(企業文件問答系統),後重新定位為全棧 AI 平台並改名 Onyx,目前雙軌運營:開源 CE(MIT)+ 商業 EE。
**與 A 類其他方案對比定性**:
| 方案 | 定位 | 完整性 |
|---|---|---|
| LibreChat | 多 LLM Chat UI | 中 |
| **onyx** | **企業 AI 知識平台(RAG + Agent + MCP 全棧)** | **最高** |
| OpenWork / Cline / Aider | AI Coding 工具 | 低(非 MEC-AI 場景)|
#### 架構概覽
```
Browser(Next.js 前端)
↓
onyx Backend(Python FastAPI)
├─ Chat & Agents Layer
│ ├─ Custom Agents(指令 + 知識源 + Actions)
│ ├─ Deep Research(多步驟 Agentic Search)
│ └─ MCP(Actions & MCP Integration)
├─ RAG Pipeline
│ ├─ 40+ Connectors(Confluence、Slack、GitHub、Google Drive、Jira...)
│ ├─ Hybrid Search(全文 + 向量)
│ ├─ Knowledge Graph(自建 Graph 索引)
│ └─ Reranker
├─ Code Interpreter(執行程式碼)
├─ Web Search(Google PSE / Exa / Serper / Firecrawl)
├─ Image Generation
└─ Enterprise Features
├─ SSO(OIDC/SAML/OAuth2)
├─ RBAC(角色權限管理)
└─ Document Permissioning(鏡像外部系統存取權限)
資料層:PostgreSQL + pgvector(向量)+ Vespa(搜尋引擎)+ Redis
```
#### 功能分析
| 功能面向 | onyx 能力 | MEC-AI 相關性 |
| --- | --- | --- |
| **Chat UI** | ✅ Next.js 完整 Web UI | 可取代 MEC-AI React 前端 |
| **RAG** | ✅ Hybrid Search + Knowledge Graph;支援數千萬文件規模 | 覆蓋 MEC-AI 文件查詢需求 |
| **Agent** | ✅ Custom Agents(指令 + 知識 + Actions)+ Deep Research | 超越 MEC-AI 現有 LangGraph Agent |
| **MCP** | ✅ Actions & MCP 整合(可連接外部系統)| 可接 CAD Tools MCP Server |
| **llama.cpp** | ✅ 支援 Ollama / vLLM / 任意 OpenAI-compatible | 可接 llama.cpp server |
| **40+ Connectors** | ✅ Confluence、Slack、GitHub、Google Drive、Jira 等 | MEC-AI 若需連接企業知識庫有優勢 |
| **多用戶管理** | ✅ RBAC + SSO + 文件權限鏡像 | 符合 MEC-AI 多用戶需求 |
| **Code Interpreter** | ✅ 執行程式碼分析資料 | MEC-AI 輔助功能 |
| **Web Search** | ✅ Google PSE / Exa / Serper | MEC-AI 可選擴充 |
| **Image Generation** | ✅ 根據 Prompt 生成圖片 | MEC-AI 較次要 |
| **排程** | ⚠️ Connector 可定時同步;無手動觸發排程 | 文件批次更新有基礎支援 |
| **多頻道** | ❌ 僅 Web UI | 無 LINE / Teams / API 多頻道 |
#### 部署評估
| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ❌ **不符合** | 官方 README 唯一快速安裝命令為 Docker `curl \| bash install.sh`;部署選項:Docker / Kubernetes / Terraform;無官方 Non-Docker 本機安裝文件。最新 commit「fix: windows install improvements」改善的是 Windows Docker 安裝體驗,非原生安裝 |
| C2 Windows | ⚠️ **條件符合** | 最新 commit(8 hours ago)正在改善 Windows 安裝;但 onyx 在 Windows 上仍需 Docker Desktop 或 WSL2;全框架無 Native Windows 執行路徑 |
| C3 llama.cpp | ✅ **符合** | 支援 Ollama / vLLM / 任意 OpenAI-compatible API;可透過 llama.cpp `--port 8080` OpenAI server mode 接入 |
| C4 功能完整 | ✅ **最完整** | RAG ✅、MCP ✅、Agent ✅、多用戶 ✅、40+ Connectors ✅;A 類方案中 C4 評分最高 |
| C5 低資源 | ❌ **不符合** | 全棧服務:Next.js 前端 + Python 後端 + **PostgreSQL + Vespa(重量級搜尋引擎)+ Redis + Nginx**;Vespa 本身建議 16GB RAM 以上;完全不適合 OA 筆電部署 |
| C6 存續性 | ✅ **優異** | 18k stars,198 貢獻者,VC 資助,商業 SaaS 版本(cloud.onyx.app);前身 Danswer 歷史悠久 |
| C7 商用風險 | ⚠️ **中風險** | CE 為 MIT 授權;但 EE(Enterprise Edition)商業化路線是長期收費功能分流的隱患;SSO、RBAC、Document Permissioning 等企業功能已部分進入 EE tier |
#### MEC-AI 適用性分析
| 取代/強化場景 | 可行性 | 說明 |
| --- | --- | --- |
| **完整取代 MEC-AI 後端(FastAPI + LangGraph + pgvector)** | ⚠️ 技術可行,但不建議 | onyx 覆蓋所有 MEC-AI 功能層;但 Docker 強依賴 + Vespa 重量級 + OA 筆電資源不足是根本障礙 |
| **取代 MEC-AI RAG 層(pgvector)** | ⚠️ 過度殺傷 | onyx RAG 能力超強,但整體架構太重,不適合僅取代 RAG 層(相比 kotaemon 更輕量)|
| **取代 MEC-AI Chat 前端(React)** | ❌ 不建議 | onyx Next.js 前端與自有 MEC-AI 後端整合需大量定制工作 |
| **Server 端企業部署(非 OA 筆電)** | ✅ 可行(條件) | 若 MEC-AI 未來在有資源的 Server 環境部署(16GB+ RAM,Docker 許可),onyx 是**最完整的企業 AI 平台**選擇 |
| **整合 CAD Tools MCP Server** | ✅ 技術可行 | onyx 的 MCP Actions 可連接 Port 8100 CAD MCP Server |
#### 關鍵限制(MEC-AI OA 筆電場景)
1. **C1 + C5 雙重障礙**:Docker 強依賴 + Vespa 重量級搜尋引擎,資源需求超出 OA 筆電能力
2. **架構完整性的代價**:onyx 越功能完整,架構越重,與 MEC-AI「低資源、OA 筆電離線部署」的核心限制條件衝突越大
3. **EE 功能鎖定趨勢**:SSO、完整 RBAC、Document Permissioning 逐步向 EE 遷移,CE 長期維護成本存在不確定性
4. **深度定制難度**:onyx 是 full-stack 完整產品,與 MEC-AI 現有 FastAPI 架構整合需要大量橋接工作
#### 與同類 A 類方案對比
| 方案 | RAG | MCP | Agent | 多用戶 | C1(非Docker) | C5(低資源) | MEC-AI 適合度 |
|---|---|---|---|---|---|---|---|
| LibreChat | ⚠️ | ⚠️ | ⚠️ | ✅ | ✅ | ⚠️ | ⚠️ |
| **onyx** | **✅(最強)** | **✅** | **✅** | **✅** | **❌** | **❌** | **⚠️** |
**關鍵觀察**:onyx 在 A 類方案中**功能最完整**,但也因此**資源需求最重**。對於有充足資源的企業 Server 部署場景,onyx 遠優於 LibreChat;但對於 MEC-AI 的 OA 筆電離線部署場景,兩者皆有障礙,LibreChat 反而因較輕量而略勝。
#### 綜合建議
| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI OA 筆電場景適用性 | ⭐⭐ (2/5) | Docker 強依賴 + Vespa 重量級,根本資源衝突 |
| 功能完整性(通用)| ⭐⭐⭐⭐⭐ (5/5) | A 類方案中功能密度最高(RAG+Agent+MCP+40+連接器)|
| 安裝便利性 | ⭐⭐ (2/5) | Docker 強依賴,多服務編排複雜 |
| 社群存續 | ⭐⭐⭐⭐⭐ (5/5) | VC 資助商業公司 + SaaS 版,存續性最有保障 |
| 商用授權 | ⭐⭐⭐ (3/5) | CE 為 MIT;EE 商業化有功能鎖定風險 |
| **綜合推薦** | ⚠️ **條件推薦(Server 端大型部署場景)** | |
**建議定位**:onyx 是 A 類評估方案中**功能最完整的企業 AI 知識平台**,集 RAG + Agent + MCP + 40+ Connectors + 企業管理於一體,適合有充足 Server 資源且 Docker 部署無限制的場景。就 MEC-AI **當前 OA 筆電離線限制**而言,C1(Docker 強依賴)與 C5(Vespa 16GB+ 資源需求)是無法繞過的根本障礙,**不建議作為 MEC-AI 主架構**。但若 MEC-AI 未來演進至 Server 端企業部署(Docker 許可、資源充足),onyx 將是最值得考慮的全棧升級路線。
---
### 方案 19:opencode(anomalyco/opencode)
- **GitHub**:https://github.com/anomalyco/opencode
- **Stars**:128,000 ⭐(2026-03,A 類迄今評估方案中最高)
- **分類**:A — 全棧 Chat 平台(Terminal + Desktop + IDE AI Coding Agent)
- **授權**:MIT
- **語言**:TypeScript 55.3%、MDX 40.7%、CSS 3.1%、Rust 0.5%
- **版本**:v1.3.0(738 releases,最新 commit 1 小時前,極度活躍)
- **Contributors**:824 人
- **組織**:anomalyco(SST framework 原創團隊,Anomaly Inc.,同為 terminal.shop 開發者)
- **定位**:「The open source AI coding agent」—— 標榜 100% 開源、Provider-agnostic、Client/Server 架構、TUI 優先
---
#### 功能分析
| 功能面向 | opencode 能力 | 備註 |
| --------------- | --------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------- |
| **Agent** | ✅ 內建三種 Agent:`build`(全存取開發)、`plan`(唯讀分析)、`@general`(通用子 Agent 複雜任務) | Tab 鍵切換;`@general` 可跨步驟多工 |
| **RAG** | ❌ 無內建 RAG 或文件向量搜尋;定位為程式碼庫探索(LSP + 檔案 @引用 + Repo Map-style 分析) | 無 pgvector / BM25 / Rerank 等語意搜尋能力 |
| **MCP** | ✅ 完整 MCP 支援:本地(stdio)+ 遠端(HTTP/SSE)+ OAuth 自動認證(RFC 7591 動態註冊) | 官方文件含詳細設定範例(Sentry、Context7、Grep by Vercel 等) |
| **SKILLS** | ✅ 支援 Agent Skills(技能模組)+ Custom Tools + Plugins 生態系 | `AGENTS.md` 規則文件驅動;`/init` 自動生成 |
| **LLM 整合** | ✅ 75+ LLM Providers(Claude/OpenAI/Google/Ollama/Groq/OpenRouter 等) | 使用 AI SDK + Models.dev 統一路由 |
| **llama.cpp** | ✅ **官方文件明確提供 llama.cpp Provider 設定範例**(`@ai-sdk/openai-compatible`,`baseURL: "http://127.0.0.1:8080/v1"`) | 與 MEC-AI llama.cpp server 架構直接相容 |
| **LSP** | ✅ Out-of-the-box LSP 支援(語法提示、類型檢查) | 開發工具特有功能,無對應 MEC-AI 需求 |
| **多介面** | ✅ TUI + Desktop App(Beta)+ IDE Extension + Web(`opencode.ai/s/`分享) | Client/Server 架構:Server 端運行,可從行動裝置遠端操控 |
| **ACP** | ✅ Agent Communication Protocol 支援(跨 Agent 通訊) | 對等 LangGraph multi-agent 但面向 Coding 場景 |
| **多模態** | ✅ 圖片拖放到 TUI 進行分析 | 限於 Coding 場景(截圖設計稿 → 生成 UI 程式碼) |
| **稽核日誌** | ❌ 無企業級稽核日誌 | 個人 / 開發團隊工具定位,無 FR-05 稽核需求 |
---
#### 部署評估(C1–C7)
| 評估準則 | 結果 | 說明 |
| ---------------- | ----------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ✅ **符合** | 安裝方式多元:`npm install -g opencode-ai`、`scoop install opencode`、`choco install opencode`、Desktop .exe 直接下載,完全無 Docker 依賴 |
| C2 Windows | ⚠️ **條件** | Windows 原生支援(scoop/choco/Desktop .exe),但官方文件明示「**為了在 Windows 上獲得最佳體驗,我們推薦使用 WSL**」;原生使用功能完整但效能略遜 |
| C3 llama.cpp | ✅ **符合** | 官方 Providers 文件**專頁說明** llama.cpp 設定(`@ai-sdk/openai-compatible` + `baseURL`),與 MEC-AI llama.cpp server(Port 8080/v1)完全相容 |
| C4 功能完整性 | ⚠️ **部分** | MCP ✅、AGENT ✅(3種)、SKILLS ✅(Custom Tools + Plugins);**RAG ❌**(無文件向量搜尋,不具備 MEC-AI 企業文件查詢核心功能);多頻道 ❌(單一 TUI/Desktop/IDE 界面,無 API Channel) |
| C5 低資源消耗 | ⚠️ **條件** | TUI/CLI 本體極輕量(TypeScript 執行期 + Bun 執行環境);資源消耗取決於所接 LLM(接 llama.cpp 時同 MEC-AI 基準);Desktop App 額外佔用 Electron-like 資源 |
| C6 存續性 | ✅ **優秀** | 128k stars(GitHub 同類最高)、824 contributors、738 releases、最新 commit 1 小時前、anomalyco(SST)全職商業公司運營、Discord 活躍社群 |
| C7 商用風險 | ✅ **無風險**| MIT License 全功能開源;無 EE 商業版分層;OpenCode Zen(付費 API 代理)完全可選,不影響核心功能使用 |
---
#### 與同類 A 類 Coding Agent 對比(Cline vs. Aider vs. opencode)
| 比較項目 | Cline(方案14) | Aider(方案15) | opencode(方案19) |
| --------------- | ------------------- | ------------------- | ---------------------------- |
| Stars | 59.2k | 42.3k | **128k ⭐** |
| License | Apache 2.0 | Apache 2.0 | **MIT** |
| 形態 | VS Code Extension | Terminal CLI | TUI + Desktop + IDE + Web |
| llama.cpp | ✅(OpenAI-compat)| ✅(OpenAI-compat)| ✅ **官方明確文件** |
| MCP | ✅ 原生 | ❌ 不支援 | ✅ **完整(本地+遠端+OAuth)**|
| Multi-Agent | ❌ | ❌ | ✅ build/plan/general 3種 |
| ACP | ❌ | ❌ | ✅ |
| LSP | ❌ | ⚠️(ctags) | ✅ **Out-of-the-box** |
| RAG | ❌ | ❌ | ❌ |
| Windows 原生 | ✅ VS Code 內 | ✅ pip | ✅(WSL 更佳) |
| 活躍度 | 活躍 | 活躍 | **極度活躍(1hr最新commit)** |
---
#### MEC-AI 適用性分析
**核心問題:定位根本不符**
opencode 是一個以**程式碼生成與程式碼庫探索**為核心的 AI Coding Agent,其設計目標是輔助開發者編寫、修改、理解程式碼。MEC-AI 的核心需求是:
1. **企業文件查詢**(PDF/圖紙語意搜尋 + RAG)→ opencode 無此功能
2. **CAD 快捷命令查詢**(MCP CAD 工具呼叫)→ opencode MCP ✅ 但整體架構非此設計
3. **多頻道訊息服務**(API / Webhook / Channel)→ opencode 無此架構
4. **FastAPI + LangGraph + pgvector 後端**→ opencode 是終端工具,非後端框架
**與 Cline / Aider 的相同結論**:雖然 opencode 的技術能力遠超 Cline 和 Aider(MCP 完整、llama.cpp 官方、多 Agent、128k stars),但**功能定位的根本差異**使其同樣不適合作為 MEC-AI 主架構。
---
#### 總評
| 向度 | 評分(5分制) | 說明 |
| -------------- | -------------- | -------------------------------------------------------------------------- |
| 功能符合度 | ⭐⭐ (2/5) | MCP + AGENT + SKILLS 對得上,但無 RAG / 無多頻道是根本缺失 |
| 部署便利性 | ⭐⭐⭐⭐ (4/5) | npm/scoop/choco/exe,Windows 原生支援,無 Docker |
| 資源消耗 | ⭐⭐⭐⭐ (4/5) | TUI 本體輕量,接 llama.cpp 後資源消耗同 MEC-AI |
| 公司存續性 | ⭐⭐⭐⭐⭐ (5/5) | 128k stars + SST 全職公司 + 824 contributors + 極度活躍,存續風險最低 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 全功能開源,無任何商業授權風險 |
| **綜合推薦** | ❌ **不建議作為 MEC-AI 核心架構**;✅ **A 類 Coding Agent 開發工具首選** | |
**建議定位**:opencode 是 A 類 AI Coding Agent 方案中**綜合能力最強、社群最活躍、授權最乾淨**的工具(128k stars MIT,遠超 Cline 59.2k 和 Aider 42.3k)。其 llama.cpp 官方原生支援、完整 MCP 生態(與 MEC-AI MCP CAD Server 直接相容)、Multi-Agent 架構(build/plan/general)、ACP 跨 Agent 通訊,使其成為 MEC-AI **開發團隊日常作業的首選 AI 程式碼助理**。在 MEC-AI 開發迭代階段,以 opencode + llama.cpp(本地 Qwen2.5-VL)組合可實現全程離線內網開發,無雲端 API 費用,**強烈推薦取代 Cline / Aider 作為團隊統一 AI 開發工具**。
---
### 方案 20:AnythingLLM(Mintplex-Labs/anything-llm)
- **GitHub**:https://github.com/Mintplex-Labs/anything-llm
- **Stars**:56,600 ⭐(2026-03)
- **分類**:A — 全棧 Chat 平台(All-in-One AI+RAG Knowledge Chat,兼具 E 類完整 RAG 能力)
- **授權**:MIT
- **語言**:JavaScript 98.3%、CSS 1.4%、Dockerfile 0.2%
- **版本**:v1.11.2(26 releases,5 days ago)
- **Contributors**:202 人
- **組織**:Mintplex Labs Inc.(商業公司,提供雲端 Hosted 版為可選付費服務)
- **定位**:「The all-in-one AI app you were looking for」— Chat with Docs + AI Agents + MCP + 完整配置彈性,預設本地運行
---
#### 功能分析
| 功能面向 | AnythingLLM 能力 | 備註 |
| --------------- | -------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------- |
| **Agent** | ✅ No-code AI Agent Builder + Custom AI Agents + Agent Flows (視覺化工作流) + Intelligent Skill Selection(自動選工具,減少 80% Token) | 功能最接近 MEC-AI「SKILLS」機制的 A 類平台 |
| **RAG** | ✅ **完整文件 RAG**:PDF/TXT/DOCX/多格式上傳 → 向量化 → 語意搜尋 + Source Citations;內建 Native Embedder(預設) | 直接解決 MEC-AI 企業文件查詢核心需求 |
| **MCP** | ✅ **Full MCP-compatibility**(官方明確標示) | 與 MEC-AI CAD Tools MCP Server Port 8100 架構直接相容 |
| **SKILLS** | ✅ Intelligent Skill Selection(智能工具篩選)+ Custom Agent Tools + Agent Flows + Browse Web 等內建工具 | 對應 MEC-AI SKILLS 機制,且支援插拔式自訂工具擴展 |
| **LLM 整合** | ✅ 40+ LLM Providers:**Any open-source llama.cpp compatible model** 官方首位列出 | 完整 OpenAI-compatible API 支援,直接對接 llama.cpp server |
| **Embedder** | ✅ AnythingLLM Native Embedder(預設,無需外部服務)+ OpenAI / Ollama / LM Studio 等 | nomic-embed-text 可透過 Ollama 接入,符合 MEC-AI 768維嵌入需求 |
| **Vector DB** | ✅ LanceDB(內嵌預設,零配置)/ pgvector / Chroma / Qdrant / Weaviate / Milvus 等 9 種 | **pgvector 直接支援**,與 MEC-AI PostgreSQL+pgvector 堆疊相容 |
| **多模態** | ✅ 支援 closed 和 open-source LLM 的多模態(圖片分析) | 支援 Qwen2.5-VL 等視覺語言模型 |
| **多用戶** | ⚠️ 多用戶 + 權限管理功能**僅 Docker 版** 提供 | 無 Docker 的 Desktop/Bare Metal 為單用戶模式 |
| **前端** | ✅ Vite + React 前端(可自訂),drag-and-drop 上傳、Source Citations UI、對話管理 | 完整 Web UI,可透過 embed widget 嵌入其他頁面(Docker 版) |
| **稽核日誌** | ⚠️ 基本操作日誌;無完整企業 Audit Log(FR-05 需自行實作) | 中等企業級功能 |
| **串流輸出** | ✅ Streaming 回應支援(WebSocket for agent invocation,HTTP streaming for chat) | Nginx 設定文件已說明 WebSocket + streaming 需求 |
---
#### 部署評估(C1–C7)
| 評估準則 | 結果 | 說明 |
| ---------------- | ----------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ⚠️ **條件** | **三條路徑**:①Desktop App (.exe,最簡‑零配置,但功能子集:無多用戶/無嵌入 Widget)②Bare Metal(git clone + yarn + Node,完整功能,但官方聲明「不受核心團隊支援」)③Docker(官方推薦,功能最完整)|
| C2 Windows | ✅ **符合** | Desktop App Windows .exe 直接下載安裝;Bare Metal 需 NodeJS v18 + Yarn(Windows 可行) |
| C3 llama.cpp | ✅ **符合** | README 支援 LLM 清單**首位**明確列出「Any open-source llama.cpp compatible model」 |
| C4 功能完整性 | ✅ **完整** | RAG ✅ + MCP ✅(Full) + Agent ✅(No-code builder)+ SKILLS ✅(Intelligent Selection)+ 多模態 ✅ + pgvector ✅;A 類中功能最全面且最貼近 MEC-AI 需求結構的方案 |
| C5 低資源消耗 | ⚠️ **條件** | Desktop App 較輕量(Electron 包裝);Bare Metal 三服務(server + collector + frontend)+ LanceDB 內嵌(無額外向量 DB 服務);2GB RAM 最低;若用 pgvector 則需 PostgreSQL |
| C6 存續性 | ✅ **優秀** | 56.6k stars,202 contributors,26 releases,活躍開發(3-5 天更新),Mintplex Labs 全職商業公司支撐 |
| C7 商用風險 | ✅ **無風險**| MIT License 全功能開源;雲端 Hosted 版(my.mintplexlabs.com)完全可選,不影響自架使用;無 EE 功能鎖定趨勢 |
---
#### MEC-AI 架構層次對應分析
| MEC-AI SA 文件需求 | AnythingLLM 對應能力 | 符合度 |
| ----------------------------- | ----------------------------------------------------------------------------------------- | ------ |
| FastAPI 後端 (Python) | ❌ NodeJS Express 後端,無 Python 生態整合 | ❌ |
| LangGraph Agent 狀態機 | ❌ 自有 Agent 框架(非 LangGraph),無狀態機圖模型 | ❌ |
| langchain-mcp-adapters (MCP) | ✅ Full MCP-compatibility(實作方式不同,結果等效) | ✅ |
| llama.cpp server(本地推理) | ✅ 官方首位支援「llama.cpp compatible model」,含 OpenAI-compatible endpoint | ✅ |
| pgvector 向量搜尋 | ✅ 原生支援 pgvector 作為 Vector DB 選項 | ✅ |
| nomic-embed-text Embedding | ✅(透過 Ollama 接入 nomic-embed-text);或使用 AnythingLLM Native Embedder(本地,768D) | ✅ |
| 文件 RAG(PDF/圖紙語意查詢) | ✅ **核心功能**:文件上傳 → Native Embedder → 向量化 → RAG 對話 | ✅ |
| SSE 串流(token/sources) | ⚠️ 有 streaming,但事件格式由 AnythingLLM 自定義(非 MEC-AI SA 規格的自訂格式) | ⚠️ |
| 多模態圖片分析(Qwen2.5-VL) | ✅ 多模態支援已內建,可接 llama.cpp VL 模型 | ✅ |
| 離線內網完全隔離 | ✅ Desktop App / Bare Metal 完全本地運行,無雲端依賴 | ✅ |
| Windows 無 Docker 安裝 | ✅(Desktop .exe) / ⚠️(Bare Metal:yarn + node,非官方支援) | ⚠️ |
---
#### 關鍵決策點:「取代」vs「平行部署」
**取代 MEC-AI 架構(全棧取代)**:
- ✅ RAG + MCP + llama.cpp + 前端 UI + Agent 全功能開箱即用
- ❌ **Backend 為 NodeJS**(非 FastAPI/Python),無法直接整合 LangGraph 狀態機、Python ML 生態、Qwen2.5-VL 多模態呼叫鏈
- ❌ **多用戶权限管理需 Docker**,與 C1 OA 筆電限制衝突
- ⚠️ Bare Metal 不受官方支援,維護成本自行承擔
**與 MEC-AI 平行部署(互補方案)**:
- 可將 AnythingLLM 作為**企業文件知識庫入口**(RAG + 對話 UI),透過 MCP 或 REST API 與 MEC-AI FastAPI 後端互通
- Desktop App 模式:單用戶場景下可實現離線文件查詢,與 MEC-AI LangGraph Agent 分工互補
---
#### 與同類全棧方案對比(A 類 RAG-focused 比較)
| 比較項目 | LibreChat(方案6)| onyx(方案18) | AnythingLLM(方案20) |
| --------------- | ----------------- | ----------------- | ------------------------- |
| Stars | 22k+ | 18k | **56.6k ⭐** |
| C1 非 Docker | ✅ | ❌ Docker Only | ⚠️(Desktop/Bare Metal) |
| RAG 完整性 | ⚠️ 限定 | ✅(Graph+Hybrid)| ✅(Native Embedder+多DB)|
| MCP | ⚠️ | ✅ | ✅ **Full** |
| llama.cpp | ⚠️ | ✅ | ✅ **首位官方列出** |
| pgvector | ❌ | ✅(Vespa主導) | ✅ **原生支援** |
| Agent Builder | ❌ | ✅ | ✅ **No-code** |
| Windows Desktop | ❌ | ❌ | ✅ **.exe 直接安裝** |
| 多用戶(非Docker)| ✅ | ❌ | ❌ |
| NodeJS/Python | NodeJS | Python+TypeScript | NodeJS |
---
#### 總評
| 向度 | 評分(5分制) | 說明 |
| -------------- | -------------- | ------------------------------------------------------------------------------------- |
| 功能符合度 | ⭐⭐⭐⭐ (4/5) | A 類中 RAG + MCP + llama.cpp + Agent 功能組合最完整,直接對應 MEC-AI 文件查詢場景 |
| 部署便利性 | ⭐⭐⭐ (3/5) | Desktop .exe 最簡(功能子集);Bare Metal 可行但不受官方支援;Docker 功能最全 |
| 資源消耗 | ⭐⭐⭐ (3/5) | Desktop App 輕量;Bare Metal 三服務(2GB RAM);使用 LanceDB 可省去向量 DB 額外消耗 |
| 公司存續性 | ⭐⭐⭐⭐ (4/5) | 56.6k stars,全職商業公司,活躍開發,存續風險低 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 全功能開源,無任何商業授權風險,雲端服務完全可選 |
| **綜合推薦** | ⚠️ **條件強力推薦(A 類中最接近 MEC-AI 文件查詢場景的全棧方案)** | |
**建議定位**:AnythingLLM 是 A 類評估方案中**功能組合最貼近 MEC-AI 核心需求**的全棧平台—— RAG(文件向量化+語意搜尋)+ MCP(Full compatibility)+ llama.cpp(首位官方支援)+ pgvector(原生)+ No-code Agent Builder —— 幾乎直接覆蓋 MEC-AI 的文件查詢、CAD 工具呼叫、本地 LLM 推理等核心場景。**主要障礙**:Backend 為 NodeJS(非 FastAPI/LangGraph Python 技術棧)、多用戶權限管理需 Docker、Bare Metal 無官方支援。**最優使用策略**:以 Desktop App(Windows .exe)作為**快速 POC 驗證**——讓 AnythingLLM 接入 llama.cpp(本地 Qwen2.5-VL)+ pgvector + MCP CAD Server,在無 Docker 環境下驗證核心文件查詢與 CAD 工具整合流程;若 POC 成功,再評估是否以 AnythingLLM 取代 MEC-AI 前端 UI 層,或以 REST API 橋接 MEC-AI FastAPI 後端。
---
### 方案 21:Quivr(QuivrHQ/quivr)
- **GitHub**:https://github.com/QuivrHQ/quivr
- **Stars**:39,000 ⭐(2026-03)
- **分類**:E — RAG/向量引擎(Python RAG Library,`quivr-core` pip package)
- **授權**:Apache 2.0(基礎)/ 含 Enterprise features 說明(LICENSE 更新過)
- **語言**:Python 99.3%、Shell 0.7%
- **版本**:`core: v0.0.33`(最新 release:**2025-02-04,距今 13 個月**)
- **最新 commit**:`fix: add Claude 4 support (#3645)`(**9 個月前**)
- **Contributors**:123 人
- **組織**:QuivrHQ(Stan Girard 創辦,曾獲 YCombinator 支持)
- **定位**:「Opiniated RAG for integrating GenAI in your apps」—— **純 Python 庫**(非全棧應用),提供 RAG 引擎供開發者嵌入自建應用
---
#### 重要背景說明:專案架構轉型
Quivr 歷經重大架構轉型:
- **舊版 Quivr**(2022-2024 初):全棧應用(Next.js 前端 + FastAPI + Supabase + Docker),曾是熱門 RAG Chat 應用
- **現版 quivr-core**(2024 中後期至今):將核心 RAG 能力重構為**純 Python 函式庫**(`pip install quivr-core`);舊版全棧 UI 已不在此 repo 維護
- **活躍度警示**:現版最新 release 為 Feb 2025(13月前),最新 commit 為 9 個月前,**專案進入實質停滯**
---
#### 功能分析(現版 quivr-core 函式庫)
| 功能面向 | Quivr 能力 | 備註 |
| --------------- | -------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------- |
| **RAG 核心** | ✅ Opiniated RAG Workflows(YAML 配置):Filter History → Rewrite → Retrieve → Generate | 工作流設計清晰,可自訂節點組合 |
| **Vector Store**| ✅ **FAISS**(本地嵌入,零服務依賴)+ **pgvector**(PostgreSQL 插件) | 直接對應 MEC-AI pgvector 堆疊,FAISS 可作為輕量替代 |
| **Reranker** | ✅ 支援 Cohere Rerank(Multi-lingual 3.0) | 需要 Cohere API Key(雲端服務),非本地 |
| **LLM 整合** | ✅ OpenAI、Anthropic、Mistral、Gemma;⚠️ **Ollama**(文件提及本地模型經由 Ollama) | 無直接 llama.cpp OpenAI-compatible endpoint 文件;透過 Ollama 中轉 |
| **Embedding** | ✅ 預設使用 LangChain Embeddings(可配置);支援 pgvector embedding | 理論上可接 nomic-embed-text(需自行配置 Ollama) |
| **Agent/Tools** | ⚠️ 支援 Web Search(工具整合)、Tool Use(基礎) | 非 LangGraph 多步 Agent;無完整 SKILLS 機制 |
| **MCP** | ❌ 無任何 MCP 支援(無相關文件或程式碼) | C4 MCP 項目缺失 |
| **前端 UI** | ❌ **純 Python 函式庫,無任何前端 UI** | 需開發者自行建立 UI(範例提供 Chainlit 整合) |
| **多用戶** | ❌ 無多用戶管理 | 函式庫層次,無用戶認證機制 |
| **文件解析** | ✅ PDF/TXT/Markdown 等多格式;整合 Megaparse(高品質文件解析) | Megaparse 為同團隊另一個 Python 庫 |
| **串流輸出** | ✅ streaming 回應基礎支援 | 函式庫層次的 streaming generator |
---
#### 部署評估(C1–C7)
| 評估準則 | 結果 | 說明 |
| ---------------- | ----------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ✅ **符合** | **純 Python 函式庫**:`pip install quivr-core`,無 Docker 依賴;Python 3.10+ 唯一前置要求 |
| C2 Windows | ⚠️ **條件** | Python 函式庫理論上 Windows 可行;但 **FAISS Windows 安裝有已知相容性問題**(通常需要 `faiss-cpu` 預編譯包);pgvector 需 PostgreSQL 另行安裝 |
| C3 llama.cpp | ⚠️ **條件** | 文件提及支援 Ollama(本地模型);透過 Ollama 可接 GGUF/llama.cpp 模型;**無直接連接 llama.cpp OpenAI-compatible API 的官方文件**,需自行透過 LangChain 自訂Provider 實作 |
| C4 功能完整性 | ⚠️ **部分** | RAG ✅(含 Rerank)、pgvector ✅、FAISS ✅;**MCP ❌**(無支援)、**前端 UI ❌**(純庫)、**多頻道 ❌**、Agent 功能基礎(⚠️) |
| C5 低資源消耗 | ✅ **優秀** | 純 Python 函式庫,FAISS 本地嵌入(無額外向量 DB 服務),資源消耗極低;依 LLM 選擇決定推理資源 |
| C6 存續性 | ❌ **高風險**| **最新 release:2025-02-04(13 個月前);最新 commit:9 個月前;issues 僅 5 個(極低活躍度)**;現版 quivr-core 已實質進入維護停滯,YC 支持不代表持續開發 |
| C7 商用風險 | ⚠️ **中風險**| Apache 2.0 基礎開源;但 LICENSE 檔案曾「Update license to include enterprise features」,存在未來 EE 商業化隱患;現階段停滯反使實際商業化不確定性更大 |
---
#### 與 kotaemon 對比(同為 E 類 RAG 方案)
| 比較項目 | kotaemon(方案16,首選) | Quivr(方案21) |
| --------------- | ---------------------------- | --------------------------- |
| Stars | 25.2k | 39k(但衰退中) |
| 形態 | **完整 RAG Web UI + 後端** | **純 Python 函式庫** |
| 最新 release | v0.11.2(3 weeks ago ✅) | v0.0.33(13 months ago ❌) |
| RAG 完整性 | ✅ Hybrid(BM25+向量)+Rerank+GraphRAG | ✅ Workflow RAG+Rerank |
| MCP | ✅(v0.11.2 新增) | ❌ 無 |
| llama.cpp | ✅ llama-cpp-python 官方 | ⚠️ Ollama 中轉 |
| pgvector | 透過 Vector Store 配置 | ✅ 原生支援 |
| FAISS | ✅ 支援 | ✅ 原生(預設) |
| 前端 UI | ✅ Gradio Web UI | ❌ 無(純庫) |
| Windows | ⚠️(bash 腳本,手動 pip) | ⚠️(FAISS 安裝問題) |
| 存續性 | ✅ 持續活躍 | ❌ 實質停滯 |
---
#### MEC-AI 整合評估
**作為 E 類 RAG 函式庫嵌入 MEC-AI**:
- ✅ Python 生態:與 MEC-AI FastAPI + LangGraph 技術棧相容(同 Python 環境)
- ✅ pgvector 直接支援:與 MEC-AI PostgreSQL 16 + pgvector 堆疊完整對應
- ✅ FAISS 備用:若不想依賴 pgvector 可用 FAISS 作為本地向量 DB
- ❌ MCP 缺失:無法直接接入 CAD MCP Server(需要 MEC-AI 自行橋接)
- ❌ C6 停滯風險:引入一個已停滯的依賴庫,長期維護風險極高
- ⚠️ llama.cpp 支援需要透過 Ollama 中轉或自行實作 LangChain Provider
---
#### 總評
| 向度 | 評分(5分制) | 說明 |
| -------------- | -------------- | --------------------------------------------------------------------------------- |
| 功能符合度 | ⭐⭐⭐ (3/5) | RAG + pgvector + FAISS 核心強,但無 MCP / 無前端 UI / 無多用戶 |
| 部署便利性 | ⭐⭐⭐⭐ (4/5) | pip install 最簡,但 FAISS Windows 需要關注,pgvector 需 PostgreSQL |
| 資源消耗 | ⭐⭐⭐⭐⭐ (5/5) | 純 Python 函式庫 + FAISS 本地嵌入,資源消耗極低 |
| 公司存續性 | ⭐ (1/5) | **最新 commit 9 個月前、release 13 個月前,專案實質停滯,存續風險最高** |
| 商用成本風險 | ⭐⭐⭐ (3/5) | Apache 2.0 基礎開源,但 EE 分層隱患 + 停滯狀態帶來不確定性 |
| **綜合推薦** | ❌ **不建議引入(C6 停滯風險根本性否決)** | |
**建議定位**:quivr-core 的 RAG 函式庫設計思路(Python native + YAML workflow + pgvector/FAISS)與 MEC-AI 技術棧高度相容,是 E 類中**技術架構相容性最好的 Python 庫選項**。然而,**C6 存續性問題是根本性否決項目**:最新 release 停留在 2025 年 2 月(距今 13 個月),最新 commit 為 9 個月前,專案活躍度幾近歸零(僅 5 個 open issues)。引入一個實質停滯的 RAG 庫作為 MEC-AI 核心依賴,將導致長期安全漏洞累積、Python 版本不相容、LLM API 變更後無人維護等高風險情境。**建議優先選用同樣 Python 生態但持續活躍的 kotaemon(E 類首選)**,或直接使用 LangChain/LlamaIndex 的 pgvector 整合作為 MEC-AI RAG 層實作。
Comments...
No Comments Yet...