wefwe

2026-03-23




# AI Agent 候選方案評估報告

| 欄位         | 內容                              |
| ------------ | --------------------------------- |
| **基準架構** | AI_Agent系統_SA文件_v4(MEC-AI)  |
| **評估日期** | 2026-03-23                        |
| **評估目的** | 評估第三方專案能否取代或強化現有後端架構 |

---

## 評估基準(源自 SA 文件限制條件)

| 編號 | 評估準則                        | 說明                                                               |
| ---- | ------------------------------- | ------------------------------------------------------------------ |
| C1   | 非 Docker 原生安裝              | Docker 需要額外開通權限,列為最後手段;優先支援直接安裝            |
| C2   | 支援 Windows                    | Client 端與 Server 端皆須能在 Windows 環境運行                     |
| C3   | 支援 llama.cpp                  | LLM 推理引擎須能整合 llama.cpp(本地 GGUF 量化模型)              |
| C4   | 功能完整性                      | 須具備 RAG、MCP、SKILLS(指令/知識)、AGENT 等核心功能             |
| C5   | 低資源消耗                      | 適合 OA 筆電部署,記憶體與運算需求合理(小模型優先)               |
| C6   | 公司/專案存續性                 | 評估開發組織穩定度、社群活躍度、授權風險                           |
| C7   | 商用化風險                      | 考量專案未來增加付費功能或授權限制的可能性,影響長期維護成本       |

---

## 分類架構說明

MEC-AI SA 文件的後端由以下層次組成,各候選方案依其「可取代/強化哪一層」進行分類:

```
┌─────────────────────────────────────────────┐
│  前端  React + Vite + TailwindCSS           │  ← 分類 A 相關
├─────────────────────────────────────────────┤
│  後端  FastAPI (Python)                     │  ← 分類 A 相關
├─────────────────────────────────────────────┤
│  Agent 層  LangGraph + LangChain            │  ← 分類 B 相關
│            + langchain-mcp-adapters         │
├─────────────────────────────────────────────┤
│  MCP 工具  CAD Tools MCP Server (Port 8100) │  ← 分類 C 相關
├─────────────────────────────────────────────┤
│  LLM 推理  llama.cpp server (GGUF)          │  ← 分類 D 相關
│            + nomic-embed-text Embedding      │
├─────────────────────────────────────────────┤
│  資料層  PostgreSQL + pgvector              │  ← 分類 E 相關
│          SQLite (Client 本機)               │
└─────────────────────────────────────────────┘
```

| 分類                    | 說明                                                                         | 典型取代/強化位置                     | 目前已評估方案          |
| ----------------------- | ---------------------------------------------------------------------------- | ------------------------------------- | ----------------------- |
| **A. 全棧 Chat 平台**   | 提供完整前端 UI + 後端服務(含使用者管理);涵蓋低代碼應用建構器與 AI 原生聊天平台兩種形態 | 後端 + 前端(全棧取代)               | Budibase、LibreChat、OpenWork、Cline、Aider、onyx、opencode、AnythingLLM |
| **B. Agent 框架**       | 提供 Agent 邏輯編排、工具呼叫、記憶管理;可以視覺化或程式化方式替換 LangGraph | 後端 Agent 層                         | Langflow、OpenClaw、nanobot、NanoClaw、PicoClaw、IronClaw、ZeroClaw、deepagents |
| **C. MCP 工具生態**     | 提供 MCP Server / Client 實作,可附加整合至現有 Agent 架構                   | MCP 層(附加,不需全面取代)          | -(待評估)             |
| **D. LLM 推理服務**     | 提供本地 LLM 推理端點(OpenAI-compatible API),取代裸 llama.cpp server      | LLM 推理層                            | LM Studio、GPT4All、Jan |
| **E. RAG / 向量引擎**   | 專注於文件向量化、語意搜尋、Rerank,可替換或強化 pgvector 流程               | 資料層 RAG 端                         | kotaemon、Quivr             |

---

## 候選方案評估

---

### 方案 1:Budibase

- **GitHub**:https://github.com/Budibase/budibase
- **Stars**:~27,800(2026-03)
- **分類**:A — 低代碼平台(Low-Code Platform with AI Agent)
- **授權**:GPL v3(核心)/ MPL 2.0(Client/元件庫)
- **語言**:TypeScript 62%、Svelte 33%
- **組織**:Budibase Ltd(英國,VC 資助,持續商業化)

#### 功能分析

| 功能面向        | Budibase 能力                                                                                            | 備註                                                                               |
| --------------- | -------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------- |
| **Agent**       | ✅ 內建 Agents 模組,支援 Instructions、Tools、Automation handoff                                        | 近期(2025-2026)積極功能,尚在快速演進中                                           |
| **RAG**         | ✅ 支援 Agent embedding models + Agent vector databases(連外部向量 DB)                                  | 需自行配置外部向量 DB(如 pgvector)                                                |
| **MCP**         | ❌ 無原生 MCP 支援;使用自有 Tools 協議(Budibase Automations / REST API 呼叫方式)                       | 與 MCP 生態不兼容                                                                   |
| **SKILLS**      | ⚠️ 透過 Instructions Prompt + 自訂 Automation Step 模擬;無正式 SKILLS 機制                              | 比 SA 文件定義的 SKILLS 更鬆散                                                      |
| **LLM 整合**    | ✅ 支援 Custom Provider(OpenAI-compatible endpoint),理論上可指向 llama.cpp server                      | 需 llama.cpp 開啟 OpenAI-compatible API(`--api`)                                  |
| **前端**        | ✅ 完整低代碼前端建構器(Svelte-based),含 Chatbox 元件                                                  | 但為平台式 UI,彈性低於自訂 React 方案                                              |
| **多模態**      | ❌ 無原生圖片上傳分析整合(視覺語言模型需自行串接)                                                       | FR-04 視覺分析難以直接實現                                                          |
| **串流輸出 SSE**| ⚠️ Agent Chat 有串流回應,但細節(SSE 格式、sources 事件)不可自訂                                        | 無法完整對應 SA 文件定義的 SSE 事件規格                                             |
| **稽核日誌**    | ✅ 企業版(🔒)提供 Audit Logs;免費版不含                                                                | FR-05 稽核需求須升級付費方案                                                        |

#### 部署評估

| 評估準則 | 結果    | 說明                                                                                                                                           |
| -------- | ------- | ---------------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ❌ **不符合** | Budibase 所有自架方式(Docker、Docker Compose、K8s、Portainer)**皆依賴容器技術**;無 Windows native 安裝方式;Budibase CLI 仍需 Docker |
| C2 Windows | ❌ **不符合** | 無法在 Windows 上非 Docker 環境直接安裝與執行 Budibase Server                                                                                 |
| C3 llama.cpp | ⚠️ **條件支援** | Budibase 可透過「Custom Provider」指向 llama.cpp 的 OpenAI-compatible API(`localhost:8080`),但 Budibase 本體仍須 Docker 運行              |
| C4 功能完整 | ⚠️ **部分符合** | Agent + RAG 支援,但缺少 MCP 整合&原生視覺多模態                                                                                             |
| C5 低資源 | ❌ **不符合** | Budibase 本體需要 Node.js 後端 + CouchDB + MinIO + Redis,資源需求顯著高於 SA 文件方案                                                        |
| C6 存續性 | ✅ **良好** | ~27,800 Stars,穩定版更新(v3.34.4),VC 資助,商業產品線清晰                                                                                 |
| C7 商用風險 | ⚠️ **中風險** | 核心功能開源(GPL v3),但**企業級功能(Audit Logs、SSO Enforce、Backups、AI Column)標記 🔒(付費)**;AI 功能快速商業化中,未來功能可能逐步鎖定 |

#### 整合評估

| 取代場景                    | 可行性     | 說明                                                                                          |
| --------------------------- | ---------- | --------------------------------------------------------------------------------------------- |
| 完整取代後端(FastAPI)     | ❌ 不建議   | Budibase 無法滿足自訂 SSE 串流、MCP 呼叫、多模態分析等核心需求                               |
| 取代前端(React)           | ⚠️ 謹慎     | 可快速建立 Chatbox UI,但彈性不足、長期定制成本高                                             |
| 取代 Agent 框架(LangGraph)| ❌ 不建議   | Budibase Agent 本質是低代碼的「Automation + LLM」,無法替代狀態機式的 LangGraph 多步 Agent   |
| 作為管理後台(Documents/Admin UI)| ✅ 可考慮 | 可用 Budibase 建立文件管理、批次匯入進度查閱等管理頁面,作為 Admin UI 補充                |

#### 總評

| 向度         | 評分(5分制)| 說明                                           |
| ------------ | ------------ | ---------------------------------------------- |
| 功能符合度   | ⭐⭐ (2/5)     | 缺 MCP、缺多模態、SSE 不可自訂                  |
| 部署便利性   | ⭐ (1/5)      | 強依賴 Docker,與核心限制條件直接衝突            |
| 資源消耗     | ⭐⭐ (2/5)     | 服務元件多(CouchDB、MinIO、Redis),資源沉重    |
| 公司存續性   | ⭐⭐⭐⭐ (4/5)  | 商業化路線清晰,但有功能鎖定趨勢                 |
| 商用成本風險 | ⭐⭐ (2/5)     | 企業功能逐步付費化,長期維護優於不確定性         |
| **綜合推薦** | ❌ **不建議作為核心架構取代方案**               |                                                |

**建議定位**:若未來有需求,可評估以 Budibase 作為**文件管理 Admin UI** 的快速原型工具,但前提是已額外解決 Docker 部署權限問題;不建議取代任何 AI Agent 核心層。

---

## 評估矩陣總覽

| 方案                           | 分類              | C1 非Docker | C2 Windows | C3 llama.cpp | C4 功能 | C5 資源 | C6 存續 | C7 商用風險 | 綜合建議                                                    |
| ------------------------------ | ----------------- | ----------- | ---------- | ------------ | ------- | ------- | ------- | ----------- | ----------------------------------------------------------- |
| Budibase                       | A 低代碼平台      | ❌           | ❌          | ⚠️           | ⚠️      | ❌       | ✅       | ⚠️          | ❌ 不建議(主架構)                                          |
| LM Studio / lms(llmster)     | D LLM 推理服務    | ✅           | ✅          | ✅            | ⚠️      | ✅       | ✅       | ⚠️          | ✅ **首選:取代 llama.cpp server 層**                        |
| GPT4All                        | D LLM 推理服務    | ✅           | ✅          | ✅            | ⚠️      | ✅       | ⚠️       | ✅           | ⚠️ 授權備援(缺 Embedding API,需額外部署 nomic Embed 服務)|| Jan(janhq/jan)               | D LLM 推理服務    | ✅           | ✅          | ✅            | ✅       | ✅       | ✅       | ✅           | ✅ **授權最乾淨的全功能替代方案(Apache 2.0,含 Embedding API + MCP + CLI)** |
| Langflow                       | B Agent 框架      | ✅           | ✅          | ⚠️           | ✅       | ⚠️       | ✅       | ✅           | ⚠️ **視覺化 LangGraph 取代方案;功能豐富但增加架構複雜度** |
| LibreChat                      | A 全棧 Chat 平台  | ✅           | ✅          | ⚠️           | ⚠️       | ⚠️       | ✅       | ✅           | ⚠️ **適合多用戶 AI 工具站附加部署;不建議取代核心 LangGraph 架構** |
| OpenClaw                       | B Agent 框架       | ✅           | ⚠️          | ❌           | ⚠️       | ✅       | ✅       | ✅           | ❌ **雲端 LLM 強依賴、Windows 需 WSL2、設計為個人通訊助理(非企業 AI 後端),不建議用於 MEC-AI** |
| nanobot                        | B Agent 框架       | ✅           | ⚠️          | ⚠️           | ⚠️       | ✅       | ✅       | ✅           | ⚠️ **OpenClaw 超輕量 Python 圖像;MCP Client 支援、可接 llama.cpp(custom 端點);適合附加小型 Bot 平台** |
| NanoClaw                       | B Agent 框架       | ❌           | ❌          | ⚠️           | ⚠️       | ⚠️       | ✅       | ✅           | ❌ **Docker 強制要求、macOS/Linux only、Anthropic API 強依賴,不建議用於 MEC-AI** |
| PicoClaw                       | B Agent 框架       | ✅           | ✅          | ✅            | ⚠️       | ✅       | ✅       | ✅           | ✅ **Go 超輕量(<10MB RAM / <1秒啟動)、Windows 原生、MCP 內建、OpenAI-compatible api_base 直連 llama.cpp;B 類最佳選擇** |
| IronClaw                       | B Agent 框架       | ⚠️           | ✅          | ⚠️            | ✅       | ⚠️       | ✅       | ✅           | ⚠️ **Rust 安全優先 Agent;B 類功能最完整(MCP + pgvector RAG + Hybrid Search + WASM 沙盒);NEAR AI OAuth 與 PostgreSQL 必要依賴是主要障礙** |
| ZeroClaw                       | B Agent 框架       | ✅           | ⚠️          | ✅            | ⚠️       | ✅       | ✅       | ✅           | ⚠️ **Rust <5MB/<10ms、OpenAI-compatible 自訂端點直連 llama.cpp、MCP + 20+頻道 + Web UI;Windows onboard 需 WSL2;Harvard/MIT 社群主導、活躍度最高** |
| OpenWork                       | A 全棧 Chat 平台  | ⚠️           | ✅          | ⚠️            | ❌       | ⚠️       | ✅       | ✅           | ❌ **OpenCode 驅動的桌面 GUI(Claude Cowork 替代品);專注程式碼編輯工作流程;設計定位與 MEC-AI 文件查詢/CAD 工具助理場景不符** |
| Cline                          | A 全棧 Chat 平台  | ✅           | ✅          | ✅            | ⚠️       | ⚠️       | ✅       | ✅           | ❌ **59.2k stars Apache 2.0 VS Code 擴充套件形式的自主 AI Coding 助理;支援 OpenAI-compatible 端點(可接 llama.cpp)+ MCP 原生;但設計定位為 IDE 開發輔助,無文件 RAG / 無多頻道,不符合 MEC-AI 企業後端需求** |
| Aider                          | A 全棧 Chat 平台  | ✅           | ✅          | ✅            | ❌       | ⚠️       | ✅       | ✅           | ❌ **42.3k stars Apache 2.0 純終端機 AI Pair Programming 工具;pip 安裝無依賴,支援任意 OpenAI-compatible API(包含 llama.cpp);無 RAG / 無多頻道 / 無排程,設計定位為開發者 Coding 工具,不符合 MEC-AI 後端需求** |
| kotaemon                       | E RAG/向量引擎   | ✅           | ⚠️          | ✅            | ✅       | ⚠️       | ✅       | ✅           | ✅ **E 類首選:25.2k stars Apache 2.0;完整 RAG Web UI(Hybrid 全文+向量+Rerank)+ GraphRAG + MCP 工具(最新 v0.11.2)+ llama-cpp-python 本地 LLM + 多模態文件解析;可直接取代 MEC-AI pgvector RAG 流程,正确區塊不廭** |
| deepagents                     | B Agent 框架       | ✅           | ✅          | ✅            | ⚠️       | ✅       | ✅       | ✅           | ⚠️ **16.8k stars MIT;由 langchain-ai 官方出品;create_deep_agent() 直接返回編譯後的 LangGraph graph,與 MEC-AI 技術检完全相容;MCP 透過 langchain-mcp-adapters 支援(與 MEC-AI 相同依賴);可直接取代 LangGraph Agent 層,但無內建 RAG / Shell 執行工具安全需評估** |
| onyx                           | A 全棧 Chat 平台  | ❌           | ⚠️          | ✅            | ✅       | ❌       | ✅       | ⚠️          | ⚠️ **18k stars MIT(CE)/商業(EE);功能最全面的 A 類平台(RAG+Agent+MCP+40+連接器+深度研究);但 Docker 為官方唯一部署路徑且多服務重資源,器端機器不適合;部分功能逐步 EE 鍵定風險** |
| opencode                       | A 全棧 Chat 平台  | ✅           | ⚠️          | ✅            | ⚠️       | ⚠️       | ✅       | ✅           | ❌ **128k stars MIT;anomalyco(SST)出品;TUI+Desktop+IDE擴充的 AI Coding Agent;llama.cpp + MCP 官方原生支援;但定位為 Coding 助理(非文件查詢/CAD 工具),不符合 MEC-AI 企業後端需求;A 類 Coding Agent 開發工具中綜合最佳首選** |
| AnythingLLM                    | A 全棧 Chat 平台  | ⚠️           | ✅          | ✅            | ✅       | ⚠️       | ✅       | ✅           | ⚠️ **56.6k stars MIT;Mintplex Labs 出品;All-in-One AI+RAG Chat App;llama.cpp 官方支援 + MCP 完整相容 + 內建 RAG(LanceDB/pgvector/Qdrant等)+ No-code Agent Builder;Desktop .exe Windows 免 Docker;但 Bare Metal 不受官方支援、多用戶功能僅 Docker;A 類中功能最接近 MEC-AI 結構需求的全棧方案** |
| Quivr                          | E RAG/向量引擎   | ✅           | ⚠️          | ⚠️            | ⚠️       | ✅       | ❌       | ⚠️           | ❌ **39k stars Apache→有EE層;Python純庫(pip install quivr-core);FAISS+pgvector+Reranker+Workflow RAG;無前端 UI/無 MCP/無多用戶;Ollama 中轉支援局域 LLM;最新 commit 9 個月前、最新 release Feb 2025(實際停滞);C6 存續性最大風險** |

圖例:✅ 符合 | ⚠️ 條件符合 | ❌ 不符合

---

## 附錄:SA 文件架構核心需求對照

| SA 文件需求                     | Budibase 現況                                                                |
| ------------------------------- | ---------------------------------------------------------------------------- |
| FastAPI 後端(Python)          | ❌ 無法取代,Budibase 後端為 Node.js Koa,不支援 Python AI 生態              |
| LangGraph Agent 狀態機          | ❌ 無等效功能,Budibase Agent 為線性 Automation 流程                         |
| langchain-mcp-adapters          | ❌ 無 MCP 支援                                                               |
| llama.cpp server 直接推理       | ⚠️ 可透過 Custom Provider API 間接連接,Budibase 本體仍須 Docker             |
| pgvector 向量搜尋               | ⚠️ 可作為外部 Vector DB 連接,Budibase 不內建向量運算                       |
| nomic-embed-text Embedding      | ⚠️ 需另外配置 Embedding Provider,Budibase 支援連接外部 Embedding 服務      |
| SSE 串流(token/sources/done)  | ❌ 無法自訂 SSE 事件格式,Budibase 有自己的 Chat streaming 機制              |
| 多模態圖片分析(Qwen2.5-VL)    | ❌ 無原生支援,需完全自行實作                                                 |
| 離線內網完全隔離                | ❌ 自架 AI 功能仍需對外連線(budibase.app)                                  |
| Windows 無 Docker 直接安裝      | ❌ 所有安裝方式皆依賴 Docker                                                  |

---

### 方案 2:lmstudio-ai/lms(LM Studio CLI + llmster)

- **GitHub**:https://github.com/lmstudio-ai/lms
- **Stars**:~4,400(CLI 工具);LM Studio 本體另計
- **分類**:D — LLM 推理服務(取代 llama.cpp server 的角色)
- **授權**:
  - `lms` CLI:**MIT**(開源)
  - LM Studio 本體(llmster / Desktop App):**專有閉源**,Element Labs, Inc. ToS
- **語言**:TypeScript 100%(CLI),本體為閉源二進位
- **組織**:Element Labs, Inc.(美國紐約,VC 資助),企業客戶含 Apple、Google、NVIDIA、Microsoft

#### 名詞釐清

> **重要**:GitHub 上的 `lmstudio-ai/lms` 是 LM Studio 的 **CLI 工具**,並非 LM Studio 本體。實際評估對象是整個 **LM Studio 生態**(lms CLI + llmster daemon + Desktop App)。

| 元件           | 說明                                                             | 授權     |
| -------------- | ---------------------------------------------------------------- | -------- |
| `lms` CLI      | 管理指令(`lms server start`、`lms load`、`lms chat`)           | MIT      |
| `llmster`      | 無 GUI 的 headless daemon,可在 Windows Server 環境執行           | 閉源     |
| LM Studio App  | 桌面應用程式,含 UI Chat、MCP Client、RAG、模型管理              | 閉源     |

#### 功能分析

| 功能面向              | LM Studio 能力                                                                                                        | 備註                                                                              |
| --------------------- | --------------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------- |
| **LLM 推理**          | ✅ llama.cpp 作為原生推理引擎,支援 GGUF 格式,GPU offload 可設定                                                     | 與 SA 文件 llama.cpp server 角色完全吻合                                           |
| **OpenAI-compatible API** | ✅ 提供 `/v1/chat/completions`、`/v1/embeddings`、`/v1/models` 等相容端點                                         | LangChain、LangGraph 可直接指向                                                    |
| **Embedding**         | ✅ 支援 Embedding 模型(`/v1/embeddings`),nomic-embed-text 等 GGUF 模型可直接載入                                   | 可取代 SA 文件獨立的 Embedding 服務                                                |
| **MCP**               | ✅ **LM Studio 是 MCP Client**,可連接外部 MCP Server(如本案 CAD Tools MCP Server Port 8100)                       | **角色是 MCP 使用端,不是 MCP 提供框架**;MCP Server 仍需自行實作                 |
| **RAG**               | ⚠️ 內建「Chat with Documents」,完全離線;但為 App 內功能,不可程式化整合至 FastAPI/LangGraph 流程                  | 無法對應 SA 文件的 pgvector 語意搜尋 + Rerank 架構                                |
| **Agent**             | ❌ 無 Agent 狀態機功能;僅提供 LLM Server,Agent 邏輯仍需 LangGraph 自行實作                                         | 不取代 LangGraph                                                                   |
| **SKILLS**            | ❌ 無等效機制                                                                                                          | —                                                                                 |
| **多模態(視覺)**    | ✅ 支援載入視覺語言模型(如 Qwen2.5-VL GGUF),透過 API 傳入 base64 圖片                                              | FR-04 視覺分析可行                                                                 |
| **串流輸出**          | ✅ OpenAI-compatible streaming,直接對應 LangChain `stream()` 方法                                                    | SSE 格式自訂需在 FastAPI 層處理,LM Studio 僅提供 token stream                    |
| **模型管理**          | ✅ `lms load`、`lms unload`、`lms ls`,JIT 自動載入,支援 CLI 自動化                                                  | 比 llama.cpp 裸 server 更易管理多模型                                              |
| **Headless 部署**     | ✅ Windows PowerShell 一行安裝 llmster:`irm https://lmstudio.ai/install.ps1 \| iex`                                  | 不需要 Docker;可設定開機自動啟動                                                  |

#### 部署評估

| 評估準則 | 結果    | 說明                                                                                                                                     |
| -------- | ------- | ---------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker | ✅ **符合** | Windows `.exe` 安裝程式;llmster 透過 PowerShell 腳本安裝;**無需 Docker**                                                         |
| C2 Windows | ✅ **符合** | 官方支援 Windows x64/ARM64;llmster亦支援 Windows headless 模式                                                                      |
| C3 llama.cpp | ✅ **完全符合** | LM Studio 本體即以 llama.cpp 為推理引擎,GGUF 量化模型(Qwen2.5-VL-7B-Q4_K_M.gguf)直接匯入使用                                  |
| C4 功能完整 | ⚠️ **部分符合** | LLM + Embedding + MCP Client + 基礎 RAG 均有;但「Agent 邏輯」、「pgvector 向量庫」、「可程式化 RAG 流程」仍需保留 LangGraph + FastAPI |
| C5 低資源 | ✅ **符合** | 單一應用程式,資源消耗與裸 llama.cpp server 相當;可 JIT 按需載入/卸載模型                                                          |
| C6 存續性 | ✅ **良好** | 商業化路線清晰,企業客戶群大(Apple、NVIDIA 等),積極開發;CLI 為 MIT;本體閉源但穩定                                               |
| C7 商用風險 | ⚠️ **中-高風險** | LM Studio 本體為**閉源專有軟體**,ToS 明訂「non-exclusive, non-transferable,僅限內部業務使用」;**不可用於 SaaS / 再散布**;未來可能調整企業授權策略 |

#### 架構整合評估

LM Studio 在 MEC-AI 架構中的最佳定位是「**取代 llama.cpp server**」,其餘層次維持不變:

```
【原始 SA 架構】
FastAPI(後端) → LangGraph Agent → llama.cpp server(裸 CLI)

【整合後架構】
FastAPI(後端) → LangGraph Agent → LM Studio / llmster(OpenAI API)
                                        ↕
                              (可選)LM Studio MCP Client
                              → CAD Tools MCP Server(Port 8100)
```

| 取代場景                              | 可行性         | 說明                                                                                     |
| ------------------------------------- | -------------- | ---------------------------------------------------------------------------------------- |
| 取代 llama.cpp server(推理引擎)     | ✅ **強烈建議** | 直接以 OpenAI-compatible API 對接 LangChain;比裸 llama.cpp 更易管理多模型               |
| 取代 Embedding 服務                   | ✅ **可行**     | 載入 nomic-embed-text.gguf 後呼叫 `/v1/embeddings`,完全取代獨立 Embedding 端點          |
| 取代 FastAPI 後端                     | ❌ **不建議**   | LM Studio 無 Agent 邏輯、無自訂 API 路由、無 pgvector 整合能力                           |
| 取代 LangGraph Agent                  | ❌ **不建議**   | LM Studio 僅是 LLM Server,無 Tool Calling 狀態機、無 Checkpoint 機制                    |
| 取代 pgvector 向量庫                  | ❌ **不建議**   | 內建 RAG 為 App-level 功能,不提供可程式化 API 存取                                      |
| 補充 MCP 測試(Client 端)            | ✅ **附加價值** | 開發期間可用 LM Studio GUI 快速測試 CAD Tools MCP Server 的工具呼叫是否正確              |

#### 授權風險重點提示

> ⚠️ **重要**:LM Studio ToS(2025-07-01 版)明訂以下限制,使用前須評估:
> - 授權為「**非排他、不可轉讓**」,僅限「個人/內部業務使用」
> - **禁止**作為 SaaS 或 Application Service Provider 對外提供服務
> - **禁止**修改、衍生、再散布軟體
> - Element Labs **可單方面終止授權**(需提前 10 天通知)
>
> 在「機構內網純內部部署,不對外提供服務」的前提下,目前使用應符合 ToS;但**長期需追蹤授權政策變更**。

#### 總評

| 向度         | 評分(5分制)| 說明                                                    |
| ------------ | ------------ | ------------------------------------------------------- |
| 功能符合度   | ⭐⭐⭐⭐ (4/5)  | LLM 推理 + Embedding + MCP Client + 視覺模型全部到位    |
| 部署便利性   | ⭐⭐⭐⭐⭐ (5/5) | Windows native 安裝,PowerShell 一行部署,無 Docker     |
| 資源消耗     | ⭐⭐⭐⭐ (4/5)  | 與 llama.cpp 裸 server 相近,JIT 載入更節省常態記憶體    |
| 公司存續性   | ⭐⭐⭐⭐ (4/5)  | 商業成熟,企業客戶多,但閉源導致依賴風險               |
| 商用成本風險 | ⭐⭐ (2/5)     | 閉源 ToS 有潛在限制,未來企業版收費可能性高              |
| **綜合推薦** | ✅ **建議作為 llama.cpp server 的強化替代方案**          |                                                         |

**建議定位**:以 LM Studio(llmster headless 模式)**取代原 SA 架構中的 llama.cpp server**。LangGraph + FastAPI + pgvector 架構維持不變,僅將 LLM 推理端點從 `llama.cpp/llama-server.exe` 改為 `LM Studio OpenAI API(localhost:1234)`。此舉可獲得更友善的模型管理界面、Embedding API 整合、視覺模型支援,且完全符合 Windows 無 Docker 部署需求。

---

### 方案 3:nomic-ai/gpt4all

- **GitHub**:https://github.com/nomic-ai/gpt4all
- **Stars**:~77,200(截至 2025-03)
- **分類**:D — LLM 推理服務(取代 llama.cpp server 的角色)
- **授權**:**MIT**(完全開源,可商業使用,無需回饋授權)
- **語言**:C++ 52%、QML 30.3%、Python 7.6%
- **組織**:Nomic AI(Nomic, Inc.,美國,VC 資助)— Nomic Embed、Atlas 等資料分析產品
- **最後 Release**:v3.10.0(2025-02-25,截至評估約 13 個月前)

> **評估對象說明**:GPT4All 提供「Desktop App(GUI)」與「Python SDK」兩種使用方式。API Server 功能內建於 Desktop App,啟動後監聽 port 4891。本次評估以「API Server + Python SDK」兩種整合模式為主,而非 GUI 使用體驗。

#### 名詞釐清

| 元件             | 說明                                                                         | 授權 |
| ---------------- | ---------------------------------------------------------------------------- | ---- |
| Desktop App      | Windows `.exe` 安裝,含 GUI、模型管理、LocalDocs RAG、內建 API Server       | MIT  |
| API Server       | 內建於 Desktop App,監聽 port 4891,OpenAI-compatible `/v1/chat/completions` | MIT  |
| Python SDK       | `pip install gpt4all`,直接呼叫本地 GGUF(via llama.cpp)                    | MIT  |
| LocalDocs        | GUI-level 本地文件 RAG,使用 Nomic Embed 模型,**不可程式化存取**            | MIT  |

#### 功能分析

| 功能面向                  | GPT4All 能力                                                                                                      | 備註                                                                             |
| ------------------------- | ----------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------- |
| **LLM 推理**              | ✅ llama.cpp 為原生後端,支援 GGUF 格式;GPU offload 可設定                                                        | 與 SA 文件 llama.cpp server 角色完全吻合                                          |
| **OpenAI-compatible API** | ✅ `/v1/chat/completions`、`/v1/completions`、`/v1/models`(port 4891)                                           | LangChain/LangGraph 可直接指向;**需 Desktop App 先啟動才能使用**                |
| **Embedding API**         | ❌ **不提供 `/v1/embeddings` REST 端點**                                                                           | ⚠️ **關鍵缺口**:無法取代 SA 文件中的 nomic-embed-text Embedding 服務           |
| **RAG(LocalDocs)**      | ⚠️ 有本地 RAG(Nomic Embed 離線);但**只能透過 GUI 設定**,API response 含 `references` 欄位(唯讀)            | 無法程式化整合至 FastAPI/LangGraph 流程;pgvector 架構仍須保留                   |
| **MCP**                   | ❌ 完全無 MCP 支援(文件、程式碼、issue 均無相關記錄)                                                             | —                                                                                |
| **Agent**                 | ❌ 無 Agent 狀態機功能                                                                                             | Agent 邏輯仍需 LangGraph 自行實作                                                 |
| **多模態(視覺)**        | ⚠️ 理論上可載入 GGUF 視覺模型,但官方文件未明確說明視覺 API 格式                                                  | FR-04 視覺分析有不確定性,不如 LM Studio 完整                                    |
| **串流輸出**              | ✅ API Server 支援 streaming                                                                                        | SSE 格式自訂需在 FastAPI 層處理                                                   |
| **Python SDK**            | ✅ `pip install gpt4all`,可在 FastAPI 後端直接呼叫本地 GGUF                                                        | 可作為 llama.cpp Python binding 的替代;但降低 Server/Client 分離的靈活性        |
| **Headless 部署**         | ⚠️ **API Server 需要 Desktop App 執行**,不支援純 CLI/服務化部署;Python SDK 可替代但功能受限                     | 不適合 Server 端無頭部署,與 LM Studio llmster 有明顯差距                         |
| **LangChain 整合**        | ✅ 官方文件提供 LangChain 整合範例                                                                                  | `ChatOpenAI(base_url="http://localhost:4891/v1")` 即可使用                       |
| **模型管理**              | ✅ Desktop App UI 提供模型下載/切換;支援直接匯入本地 GGUF                                                          | 離線匯入需手動操作 UI;無 CLI 自動化 load/unload 指令                             |

#### 部署評估

| 評估準則       | 結果              | 說明                                                                                                            |
| -------------- | ----------------- | --------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker   | ✅ **符合**        | Windows `.exe` 原生安裝,無需 Docker;Python SDK 亦可 `pip install gpt4all` 獨立使用                           |
| C2 Windows     | ✅ **符合**        | 官方支援 Windows x64/ARM64,為主要支援平台之一                                                                   |
| C3 llama.cpp   | ✅ **完全符合**    | 以 llama.cpp C++ 函式庫作為推理後端,GGUF 直接載入,量化格式完整支援                                            |
| C4 功能完整    | ⚠️ **部分符合**   | LLM 推理完整;但**無 Embedding API、API 模式需 Desktop 常駐、LocalDocs 不可程式化、無 MCP**                    |
| C5 低資源      | ✅ **符合**        | Desktop App 單一可執行檔,LLM 資源消耗與裸 llama.cpp 相近;基礎 overhead 低                                    |
| C6 存續性      | ⚠️ **中風險**     | 77.2k Stars 社群龐大,但最後 Release(v3.10.0)距評估已 13 個月;Nomic AI 重心已轉移至 Atlas/Embed 商業產品    |
| C7 商用風險    | ✅ **低風險**      | **MIT 授權**,明示可商業使用、無限制再散布;完全開源,無閉源依賴,授權為本次評估中最乾淨的方案                  |

#### 架構整合評估

```
【整合後架構(GPT4All API Server 模式)】
FastAPI(後端) → LangGraph Agent → GPT4All Desktop App(API port 4891)
                                   ↕(僅 Chat Completion)
                           ⚠️ 缺:Embedding API → 仍需獨立 Embedding 服務
                           ❌ 缺:MCP Client 支援
                           ❌ 缺:Headless 無頭服務化

【替代整合(Python SDK 模式)】
FastAPI(後端,同 process) ← gpt4all Python SDK → 本地 GGUF
                           ⚠️ 仍缺 Embedding API;Server/Client 邊界模糊
```

| 取代場景                         | 可行性         | 說明                                                                                        |
| -------------------------------- | -------------- | ------------------------------------------------------------------------------------------- |
| 取代 llama.cpp server(推理引擎)| ✅ **可行**     | API Server 或 Python SDK 均可取代;API 模式需 Desktop App 持續執行                          |
| 取代 Embedding 服務              | ❌ **不可行**   | 無 `/v1/embeddings` API;需另外部署 `nomic-embed-text` Python 服務                          |
| 取代 FastAPI 後端                | ❌ **不建議**   | 無 Agent 邏輯、無自訂路由、無 pgvector 整合                                                  |
| 取代 LangGraph Agent             | ❌ **不建議**   | 純 LLM 服務,無 Tool Calling 狀態機                                                          |
| 取代 pgvector 向量庫             | ❌ **不建議**   | LocalDocs 不可程式化存取,無法替代向量資料庫流程                                             |
| 作為 LM Studio 授權備援          | ✅ **條件可行** | 若 LM Studio ToS 成問題,可切換;需額外補齊 Embedding 服務(`pip install nomic`)            |

#### GPT4All vs LM Studio 直接比較

| 面向                | GPT4All                         | LM Studio / llmster            |
| ------------------- | ------------------------------- | ------------------------------ |
| **授權**            | ✅ MIT(完全開源)               | ⚠️ 本體閉源,Element Labs ToS  |
| **Embedding API**   | ❌ 無                            | ✅ `/v1/embeddings`             |
| **MCP Client**      | ❌ 無                            | ✅ 內建 MCP Client              |
| **Headless 部署**   | ❌ 需 Desktop App 執行           | ✅ llmster daemon 全自動        |
| **視覺模型 API**    | ⚠️ 支援不明確                    | ✅ 明確支援圖片 base64 輸入     |
| **CLI 自動化**      | ❌ 無模型 load/unload CLI        | ✅ `lms load / unload / ls`     |
| **開發活躍度**      | ⚠️ 慢(最後 release ~13 個月前) | ✅ 快(持續更新)               |
| **社群規模**        | ✅ 大(77.2k stars)             | ⚠️ 中(lms: 4.4k stars)       |
| **SA 整合得分**     | ⚠️ 中(補齊 Embedding 後可用)   | ✅ 高(整合全面)               |

#### 總評

| 向度         | 評分(5分制)  | 說明                                                                          |
| ------------ | -------------- | ----------------------------------------------------------------------------- |
| 功能符合度   | ⭐⭐⭐ (3/5)     | LLM 推理可行,但缺 Embedding API 是硬傷;LocalDocs 不可程式化;無 MCP        |
| 部署便利性   | ⭐⭐⭐ (3/5)     | Windows 原生安裝無 Docker;但 API 模式需 Desktop App 常駐,不如 llmster 乾淨 |
| 資源消耗     | ⭐⭐⭐⭐ (4/5)    | 輕量化,與 llama.cpp 裸 server 相近                                           |
| 公司存續性   | ⭐⭐⭐ (3/5)     | 社群龐大但開發趨緩;Nomic AI 商業重心已轉移                                   |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5)  | MIT 完全開源,商用零風險,本次評估授權最乾淨的方案                            |
| **綜合推薦** | ⚠️ **可作為 LM Studio 授權備援方案;主要缺口為 Embedding API**              |                                                                               |

**建議定位**:GPT4All 的授權(MIT)優於 LM Studio,但功能整合完整度明顯較低——最關鍵的缺口是**無 Embedding API**,導致 SA 架構的 nomic-embed-text Embedding 服務無法由 GPT4All 統一提供。

推薦策略:
1. **主要方案使用 LM Studio**(llmster headless 模式)— 功能整合全面
2. 若 LM Studio ToS 在未來成為授權問題,可切換至 **GPT4All Python SDK(in-process)+ 獨立 `nomic` Python Embedding 服務**
3. 切換成本低(LangChain 端點修改),但需額外補齊 `pip install nomic` + Embedding FastAPI 封裝

---

### 方案 4:janhq/jan

- **GitHub**:https://github.com/janhq/jan
- **Stars**:~41,200(截至 2025-03)
- **分類**:D — LLM 推理服務(取代 llama.cpp server 的角色)
- **授權**:**Apache 2.0**(完全開源,可商業使用;比 MIT 更適合企業,明確專利條款)
- **語言**:TypeScript 72.4%、Rust 21.1%、Python 1.9%
- **組織**:Jan.ai(Open Superintelligence,早期 VC 資助,越南/美國工程團隊)
- **最後 Release**:v0.7.8(2026-03-11,**積極開發中**,最新提交距今 18 小時)
- **技術棧**:Tauri(Rust 桌面框架)+ llama.cpp(推理引擎)+ MLX(macOS Apple Silicon)

> **評估定位說明**:Jan 同時提供「Desktop App(GUI)」與「CLI(`jan serve`)」兩種模式。CLI 於 v0.7.8(2026-03)首次發布,提供真正的 headless 部署能力。本次評估以「CLI + API Server 整合」模式為主。

#### 名詞釐清

| 元件              | 說明                                                                                          | 授權        |
| ----------------- | --------------------------------------------------------------------------------------------- | ----------- |
| Desktop App       | Windows `.exe`(Microsoft Store 或直接下載)、macOS `.dmg`、Linux `.deb`/`.AppImage`         | Apache 2.0  |
| CLI(`jan serve`)| 隨 Desktop App 安裝,`jan serve MODEL_ID --detach` 可無 GUI 背景執行;port 6767             | Apache 2.0  |
| Local API Server  | 透過 Desktop App 設定頁面啟動;port 1337,OpenAI-compatible                                  | Apache 2.0  |
| MCP Client        | Jan 是 MCP Host,可連接外部 MCP Server                                                       | Apache 2.0  |
| OpenClaw Agent    | 內建自主 Agent(檔案操作、行事曆、WhatsApp/Discord/Slack)                                    | Apache 2.0  |

#### 功能分析

| 功能面向                  | Jan 能力                                                                                                          | 備註                                                                                    |
| ------------------------- | ----------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------- |
| **LLM 推理**              | ✅ llama.cpp 為原生後端,支援 GGUF 格式;MLX 引擎支援 macOS Apple Silicon                                         | 與 SA 文件 llama.cpp server 角色完全吻合                                                 |
| **OpenAI-compatible API** | ✅ `/v1/chat/completions`、`/v1/completions`、`/v1/models`(CLI port 6767 / Desktop port 1337)                  | LangChain/LangGraph `ChatOpenAI(base_url=...)` 直接指向                                  |
| **Embedding API**         | ✅ **`jan serve MODEL_ID --embedding` 旗標**,將 Embedding 模型以 API 形式暴露                                    | ⭐ **GPT4All 缺少的關鍵功能,Jan 具備**;可直接取代 nomic-embed-text 推理端點            |
| **MCP Client**            | ✅ Jan 是 MCP Host,可在設定頁面新增任意 MCP Server(支援 stdio/SSE 連線)                                        | 可直接連接本案 CAD Tools MCP Server(Port 8100)                                         |
| **RAG**                   | ⚠️ File Upload 功能(上傳檔案至對話);但無獨立 RAG 知識庫 API;pgvector 架構仍需保留                            | 不可程式化取代 pgvector;但 Embedding API 可強化 RAG 流程                                |
| **Agent**                 | ⚠️ OpenClaw 為內建自主 Agent(動作導向,可讀檔、管理行事曆、連接 IM);但非 LangGraph 可替換的 Python Agent 框架 | 對 MEC-AI 架構而言:API Server 是主要整合點;Agent 功能屬附加項                          |
| **視覺多模態**            | ✅ 提供 Jan-v2-VL(視覺語言模型),並可載入外部視覺 GGUF(如 Qwen2.5-VL)                                        | FR-04 視覺分析可行,與 LM Studio 相當                                                    |
| **串流輸出**              | ✅ OpenAI-compatible streaming                                                                                     | SSE 格式自訂需在 FastAPI 層處理                                                          |
| **CLI headless 部署**     | ✅ `jan serve MODEL_ID --detach`(背景執行,無需 GUI);`--port` 自訂埠號;`--n-gpu-layers` GPU 配置               | CLI 安裝路徑:`~/.local/bin/jan`(macOS/Linux),Windows 路徑有特殊處理(見下方注意)    |
| **Windows CLI 已知問題**  | ⚠️ 官方 Troubleshooting 記載:**Windows 上 `jan` 指令可能開啟 Desktop App 而非 CLI**                             | ⚠️ v0.7.8 發布才 2 週,Windows headless 穩定性待確認;需等待後續修復                    |
| **模型管理**              | ✅ CLI:`jan models list`、`jan models load`;Desktop App Hub 下載模型;兩者共用同一資料夾                         | HuggingFace 倉庫可直接當 MODEL_ID 指定(`jan serve unsloth/Qwen3.5-9B-GGUF`)            |
| **LangChain 整合**        | ✅ OpenAI-compatible API,`ChatOpenAI(base_url="http://localhost:6767/v1")` 直接使用                               | —                                                                                       |

#### 部署評估

| 評估準則       | 結果              | 說明                                                                                                                             |
| -------------- | ----------------- | -------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker   | ✅ **符合**        | Windows `.exe` 原生安裝(Microsoft Store 或直接下載),無需 Docker                                                               |
| C2 Windows     | ✅ **符合**        | 官方支援 Windows 10+(NVIDIA/AMD/Intel Arc GPU 加速);Microsoft Store 可直接安裝                                                |
| C3 llama.cpp   | ✅ **完全符合**    | llama.cpp 為原生推理引擎,GGUF 直接載入,量化格式(Q4_K_M 等)完整支援                                                           |
| C4 功能完整    | ✅ **高度符合**    | LLM 推理 + **Embedding API**(`--embedding`)+ MCP Client + 視覺模型 + CLI headless + 串流輸出均到位;RAG 知識庫仍需 pgvector 保留|
| C5 低資源      | ✅ **符合**        | Tauri 輕量桌面框架,資源 overhead 低;CLI 模式無 GUI,與裸 llama.cpp server 資源消耗相近                                          |
| C6 存續性      | ✅ **良好**        | 41.2k Stars,138 位貢獻者,**最後 Release v0.7.8 為 2026-03-11(距評估約 2 週)**,活躍開發;開源組織架構穩定                     |
| C7 商用風險    | ✅ **低風險**      | **Apache 2.0 授權**,明確允許商業使用、修改、散布;含專利授權條款(比 MIT 更完整);完全開源,無閉源依賴                           |

> ⚠️ **Windows CLI 注意事項(v0.7.8)**:官方 Troubleshooting 明確記載 Windows 環境下 `jan` 指令可能開啟 Desktop App 而非執行 CLI。CLI 功能於 v0.7.8(2026-03-11)才首次發布,Windows headless 穩定性尚待社群驗證。建議在正式部署前先做環境測試。

#### 架構整合評估

Jan 在 MEC-AI 架構中的最佳定位與 LM Studio 相同:**取代 llama.cpp server**,並可同時取代獨立 Embedding 服務:

```
【整合後架構(Jan CLI 模式)】
FastAPI(後端) → LangGraph Agent → jan serve Qwen2.5-VL(port 6767)
                                       ↕ /v1/chat/completions(LLM Completion)

FastAPI(後端) → pgvector RAG     → jan serve nomic-embed-text --embedding
                                       ↕ /v1/embeddings(Embedding 向量化)

Jan(MCP Host)                    → CAD Tools MCP Server(Port 8100)
                                       ↕ MCP stdio/SSE 連線
```

| 取代場景                              | 可行性         | 說明                                                                                     |
| ------------------------------------- | -------------- | ---------------------------------------------------------------------------------------- |
| 取代 llama.cpp server(推理引擎)     | ✅ **強烈建議** | `jan serve Qwen2.5-VL` 直接以 OpenAI-compatible API 對接 LangChain;CLI headless        |
| 取代 Embedding 服務                   | ✅ **可行**     | `jan serve nomic-embed-text --embedding` 後呼叫 `/v1/embeddings`,完全取代獨立端點       |
| 取代 FastAPI 後端                     | ❌ **不建議**   | Jan 無 Agent 狀態機、無自訂 Python API 路由、無 pgvector 整合能力                        |
| 取代 LangGraph Agent                  | ❌ **不建議**   | OpenClaw 為 App-level Agent,無法以程式化方式整合至 FastAPI LangGraph 流程               |
| 取代 pgvector 向量庫                  | ❌ **不建議**   | File Upload 功能為對話層級,無獨立可程式化 RAG API                                       |
| 補充 MCP 測試(Client 端)            | ✅ **附加價值** | 可在開發期間用 Jan Desktop App 快速測試 CAD Tools MCP Server 工具呼叫是否正常             |

#### Jan vs LM Studio vs GPT4All 三方比較

| 面向                    | Jan(janhq/jan)        | LM Studio / llmster       | GPT4All                     |
| ----------------------- | ----------------------- | ------------------------- | --------------------------- |
| **授權**                | ✅ Apache 2.0(開源)   | ⚠️ 本體閉源,ToS 限制      | ✅ MIT(開源)               |
| **Embedding API**       | ✅ `--embedding` 旗標   | ✅ `/v1/embeddings`        | ❌ 無                        |
| **MCP Client**          | ✅ MCP Host             | ✅ 內建 MCP Client         | ❌ 無                        |
| **CLI Headless**        | ✅ `jan serve --detach` | ✅ llmster daemon           | ❌ 需 Desktop App            |
| **視覺模型 API**        | ✅ Jan-v2-VL + 外部 GGUF| ✅ 明確支援                | ⚠️ 不明確                   |
| **Windows CLI 穩定度**  | ⚠️ v0.7.8 新功能,待驗證 | ✅ 成熟穩定                | —(CLI 不適用)             |
| **開發活躍度**          | ✅ 快(每週更新)        | ✅ 快(持續更新)           | ⚠️ 慢(~13 個月無 release) |
| **Stars**               | ✅ 41.2k                | ⚠️ lms: 4.4k               | ✅ 77.2k                    |
| **SA 整合得分**         | ✅ 高(功能最全面)      | ✅ 高(但閉源風險)         | ⚠️ 中(缺 Embedding)        |

#### 總評

| 向度         | 評分(5分制)  | 說明                                                                                          |
| ------------ | -------------- | --------------------------------------------------------------------------------------------- |
| 功能符合度   | ⭐⭐⭐⭐⭐ (5/5)  | LLM + Embedding API + MCP Client + CLI headless + 視覺模型全部到位;三方比較中功能最完整      |
| 部署便利性   | ⭐⭐⭐⭐ (4/5)   | Windows native 安裝,CLI headless 可用;但 Windows CLI 為新功能(v0.7.8),穩定性需驗證        |
| 資源消耗     | ⭐⭐⭐⭐ (4/5)   | Tauri 輕量框架,與 llama.cpp 裸 server 資源相近                                               |
| 公司存續性   | ⭐⭐⭐⭐ (4/5)   | 41.2k stars,積極開發,Apache 2.0 確保長期可用性;唯組織規模較小                              |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5)  | Apache 2.0 完全開源,含專利授權,商用零風險;本次評估中授權最完整的方案                       |
| **綜合推薦** | ✅ **建議作為 LM Studio 的授權優先替代方案;待 Windows CLI 穩定性確認後可升為首選**           |                                                                                               |

**建議定位**:Jan 在功能面幾乎與 LM Studio 對等(LLM + Embedding + MCP + CLI headless),但授權(Apache 2.0)遠優於 LM Studio(閉源 ToS)與 GPT4All(MIT,缺 Embedding)。

推薦策略:
1. **短期**:以 LM Studio 作為主要推理服務(CLI 穩定成熟);同時在測試環境部署 Jan CLI 驗證 Windows headless 穩定性
2. **中期(Windows CLI 穩定後)**:將 Jan 升為首選推理服務,以 `jan serve Qwen2.5-VL --detach` 取代 LM Studio;`jan serve nomic-embed-text --embedding` 統一管理 LLM + Embedding 兩個端點
3. **長期**:Jan 平台路線清晰(Jan Platform 基礎設施層),授權潔淨,適合作為機構內部長期依賴的推理服務基礎

---

### 方案 5:langflow-ai/langflow

- **GitHub**:https://github.com/langflow-ai/langflow
- **Stars**:~146,000(截至 2026-03,GitHub 上 AI 類第三高 stars)
- **分類**:B — Agent 框架(視覺化 Agent 編排平台,可取代 LangGraph 層)
- **授權**:**MIT**(完全開源,可商業使用)
- **語言**:Python 56.2%、TypeScript 25.9%、JavaScript 17.1%
- **組織**:Langflow AI(曾隸屬 DataStax,現獨立;商業支援版可透過 DataStax Astra)
- **最後 Release**:v1.8.2(2026-03-21,距評估約 **2 天**)
- **技術棧**:FastAPI 後端 + React Flow 前端(可視化節點編輯器)+ SQLite/PostgreSQL 持久化

> **定位重點**:Langflow **不是** LLM 推理服務,它是視覺化的 Agent/Workflow 編排平台。需要配合外部 LLM 端點(LM Studio、Jan、llama.cpp server)使用。與 SA 架構的對應關係是:Langflow = 視覺化版的 LangGraph + LangChain + langchain-mcp-adapters。

#### 名詞釐清

| 元件                   | 說明                                                                                                  | 授權 |
| ---------------------- | ----------------------------------------------------------------------------------------------------- | ---- |
| Langflow Desktop       | Windows `.exe`(或 macOS)桌面應用,含自動依賴管理,無需手動 Python 環境                             | MIT  |
| Langflow OSS(Python) | `uv pip install langflow` + `uv run langflow run`,啟動後存取 `http://127.0.0.1:7860`                | MIT  |
| Langflow API Server    | FastAPI 後端,自動暴露每個 Flow 的 REST endpoint(`/api/v1/run/{flow_id}`)                           | MIT  |
| MCP Server             | Langflow 可將 Flow 暴露為 MCP 工具,供任何 MCP Client 呼叫(streamable HTTP / SSE)                  | MIT  |
| MCP Client             | Langflow Flow 中可連接外部 MCP Server,在 Flow 節點中使用外部工具                                    | MIT  |

#### 功能分析

| 功能面向                  | Langflow 能力                                                                                                     | 備註(對應 SA 架構層次)                                                                      |
| ------------------------- | ----------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------- |
| **視覺化 Flow 編輯**      | ✅ 拖拉式節點編輯器,支援 LLM、Prompt、RAG、Agent、Tool 等元件                                                    | 取代 LangGraph Python 程式碼,以視覺方式設計 Agent 邏輯                                       |
| **Agent 編排**            | ✅ 多 Agent 協同(Multi-agent Orchestration)、對話管理、工具呼叫、狀態追蹤                                        | 對應 SA 的 LangGraph Agent 層                                                                 |
| **RAG 內建元件**          | ✅ 內建 Vector Store(支援 pgvector、Chroma、FAISS)、Embedding、Document Loader、Retrieval 節點                   | 可在 Flow 視覺化設計整個 RAG 流程(文件匯入、向量更新、語意搜尋)                             |
| **LLM 連接**              | ⚠️ **不自帶推理引擎**;透過 OpenAI-compatible API 連接外部 LLM(LM Studio、Jan、llama.cpp server 均可)           | C3 llama.cpp:條件符合(須外部推理服務);LM Studio、Jan 提供端點後可直接整合                 |
| **MCP Server**            | ✅ 將每個 Langflow Flow 自動暴露為 MCP 工具,任何 MCP Client 可呼叫                                               | ⭐ 關鍵差異:Langflow 的 MCP 角色是 **被呼叫方**(MCP Provider),可把 CAD 問答流程包成 MCP 工具|
| **MCP Client**            | ✅ Flow 內部可連接外部 MCP Server,在編排邏輯中使用外部工具                                                        | 可連接外部 CAD Tools MCP Server(Port 8100),直接在 Flow 節點中呼叫                          |
| **REST API 輸出**         | ✅ 每個 Flow 自動生成 REST endpoint,可嵌入任何應用(含 FastAPI、React 等)                                        | SA FastAPI 後端可呼叫 Langflow REST API 執行 Flow,實現混合架構                               |
| **串流輸出**              | ✅ 支援 Streaming 回應(SSE),可透過 REST API 串流至前端                                                          | SSE 格式可透過 Langflow streaming endpoint 或 FastAPI 中間層處理                              |
| **多模態(視覺)**        | ⚠️ 理論上可連接視覺 LLM;但視覺 API(base64 圖片輸入)的 Flow 節點支援取決於所連接的 LLM 端點                   | 需自行在 Flow 中設計圖片處理節點                                                              |
| **無 Docker 安裝**        | ✅ Langflow Desktop(Windows `.exe`)或 `uv pip install langflow`(無 Docker)                                     | C1 完全符合                                                                                   |
| **Windows 支援**          | ✅ Windows Python 3.10–3.12;Langflow Desktop 直接安裝;官方有 Windows Playwright 測試 CI                          | C2 完全符合;Windows 限制 Python ≤ 3.12(Linux/Mac 支援 3.13)                                |
| **資源消耗**              | ⚠️ 最低 Dual-core CPU + 2GB RAM,建議 Multi-core + 4GB RAM;比 LM Studio 等推理服務更重(含 Web UI 服務)          | C5 中度資源;OA 筆電可運行但有額外 overhead                                                   |
| **LangChain 整合**        | ✅ Langflow 本身即以 LangChain 元件為基礎構建;所有 LangChain 工具、記憶體、Retriever 均可作為節點使用             | —                                                                                             |
| **可觀測性**              | ✅ 整合 LangSmith、LangFuse;內建 Playground 逐步執行檢視                                                          | 開發除錯能力強                                                                                |

#### 部署評估

| 評估準則       | 結果              | 說明                                                                                                                             |
| -------------- | ----------------- | -------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker   | ✅ **符合**        | Langflow Desktop(Windows 無 Docker 安裝)或 `uv pip install langflow`;Docker 為可選項,非必須                                  |
| C2 Windows     | ✅ **符合**        | Desktop App 支援 Windows;Python 套件支援 Windows 3.10–3.12;有 Windows CI 測試                                                  |
| C3 llama.cpp   | ⚠️ **條件符合**   | Langflow 不直接執行 llama.cpp;透過 OpenAI-compatible API 連接外部 llama.cpp server(或 LM Studio/Jan)即可整合                  |
| C4 功能完整    | ✅ **高度符合**    | 視覺化 Agent 編排 + 內建 RAG + MCP Server + MCP Client + REST API 輸出,功能比 LangGraph 純程式實作更豐富                       |
| C5 低資源      | ⚠️ **中度符合**   | 最低 2GB RAM、建議 4GB+;比裸 LLM 推理服務更重(有 FastAPI + React 服務);OA 筆電可運行,但需考慮與 LLM 推理服務的總資源占用    |
| C6 存續性      | ✅ **優良**        | 146k stars(AI 類最高之一),344 位貢獻者,v1.8.2 發布距今 2 天,極活躍;企業商業支援透過 DataStax Astra 提供                   |
| C7 商用風險    | ✅ **低風險**      | MIT 授權,完全開源商用;無閉源依賴;DataStax 商業版(Astra Langflow)為付費加值,不影響 OSS 使用                                 |

#### 架構整合評估

Langflow 在 MEC-AI 架構中可以兩種模式整合:

**模式 A:Langflow 取代 LangGraph(完整替換 Agent 層)**
```
【整合後架構 A】
React 前端 ─→ FastAPI(自訂 SSE 串流Layer)─→ Langflow REST API(Flow 執行)
                                                  ↕
                                         LangGraph 被視覺化 Flow 取代
                                                  ↕
                             LM Studio / Jan(OpenAI API,外部推理服務)
                                                  ↕
                             pgvector(Langflow 透過 Vector Store 節點連接)
                                                  ↕
                             CAD Tools MCP Server(Langflow MCP Client 節點)
```

**模式 B:Langflow 作為附加的 Flow 服務層(混合架構)**
```
【整合後架構 B】
React 前端 ─→ FastAPI(主 Agent 層,保留 LangGraph)
                 ↕ 處理複雜自訂邏輯
              Langflow(作為特定 Flow 的後台服務,FastAPI 呼叫其 REST API)
                 ↕
              LM Studio / Jan(共用推理服務)
                 ↕ (Langflow 也作為 MCP Server)
              任何外部 MCP Client 呼叫 Langflow Flow
```

| 取代場景                              | 可行性         | 說明                                                                                           |
| ------------------------------------- | -------------- | ---------------------------------------------------------------------------------------------- |
| 取代 LangGraph(Agent 邏輯層)        | ⚠️ **條件可行** | 標準 RAG + Tool Calling 流程可完整視覺化;但複雜自訂 SSE 事件(token/sources/done 格式)需透過 FastAPI 封裝|
| 取代 FastAPI 後端                     | ❌ **不建議**   | Langflow 可暴露 Flow REST API,但自訂 SSE 串流格式、SA 文件的 audit_log 寫入等需求難以在 Flow 節點中精確控制|
| 取代 llama.cpp server                 | ❌ **不可行**   | Langflow 無推理能力,仍需 LM Studio / Jan 作為 LLM 端點                                        |
| 作為 MCP Server(暴露 Flow 為工具)   | ✅ **高附加價值**| 可將「CAD 指令問答 Flow」包裝成 MCP 工具,讓任何 MCP Client(Claude Desktop、Jan 等)直接呼叫  |
| 取代 pgvector RAG 流程                | ⚠️ **條件可行** | Langflow 的 Vector Store 節點支援 pgvector,可視覺化設計文件匯入→向量化→查詢流程               |
| 作為開發/測試工具                     | ✅ **強烈建議** | Playground 逐步執行、Flow 視覺化除錯,可大幅加速 Agent 邏輯開發迭代效率                        |

#### Langflow vs LangGraph(程式碼)比較

| 面向                    | Langflow(視覺化)                              | LangGraph(程式碼,SA 現有架構)               |
| ----------------------- | ----------------------------------------------- | ---------------------------------------------- |
| **開發方式**            | 拖拉節點,快速迭代                              | Python 程式碼,完全自訂                         |
| **SSE 串流控制**        | ⚠️ 受限於 Langflow streaming 格式               | ✅ 完全自訂 SSE events(token/sources/done)    |
| **多模態圖片處理**      | ⚠️ 節點支援有限                                 | ✅ 可精確控制 base64 encoding 流程              |
| **Checkpoint(SQLite)**| ⚠️ 有自己的持久化機制,與 AsyncSqliteSaver 不同 | ✅ LangGraph AsyncSqliteSaver 完整支援          |
| **MCP 整合**            | ✅ 內建 MCP Server + Client 節點                | ✅ langchain-mcp-adapters 程式化整合            |
| **RAG 設計**            | ✅ 視覺化 Vector Store + Retriever 節點         | ✅ 程式化 pgvector + LangChain Retriever        |
| **維護成本**            | ⚠️ Flow JSON 版本管理複雜度                     | ✅ Git 版本控制,與現有工程流程一致             |
| **學習曲線**            | ✅ 低(視覺化直觀)                             | ⚠️ 高(需要 Python + LangGraph 知識)           |

#### 總評

| 向度         | 評分(5分制)  | 說明                                                                                              |
| ------------ | -------------- | ------------------------------------------------------------------------------------------------- |
| 功能符合度   | ⭐⭐⭐⭐ (4/5)   | Agent 編排、RAG、MCP 雙向(Server+Client)均強;LLM 推理需外部服務;複雜 SSE 格式需 FastAPI 封裝 |
| 部署便利性   | ⭐⭐⭐⭐ (4/5)   | Desktop App 或 `pip install` 一行安裝,無 Docker;啟動後有 Web UI                                 |
| 資源消耗     | ⭐⭐⭐ (3/5)     | FastAPI + React 服務有額外 overhead(建議 4GB RAM);與 LLM 推理服務共存時需規劃資源              |
| 公司存續性   | ⭐⭐⭐⭐⭐ (5/5)  | 146k stars,2天前發布新版,社群與商業支援俱佳                                                    |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5)  | MIT 完全開源,商用零風險                                                                          |
| **綜合推薦** | ⚠️ **條件建議:適合用於快速迭代 Agent 邏輯開發與測試;標準 RAG Flow 可取代 LangGraph;精密 SSE/多模態需求仍建議保留 LangGraph** | |

**建議定位**:

Langflow 最適合 MEC-AI 的**兩個場景**:

1. **開發/測試加速**:用 Langflow Playground 快速驗證 Agent 邏輯(RAG 流程、工具呼叫),縮短 LangGraph 程式碼的開發迭代週期。

2. **MCP Server 輸出**:將 CAD 問答、知識查詢等功能打包成 Langflow Flow,對外暴露為 MCP Server,供其他 MCP Client(如 Claude Desktop、Jan App)直接調用,擴大工具生態。

若計畫以 Langflow 完整取代 LangGraph,需事先確認:
- SA 文件的三段 SSE 事件格式(`token` / `sources` / `done`)可透過 FastAPI Proxy 層封裝 Langflow 串流輸出
- LangGraph `AsyncSqliteSaver` 的對話 Checkpoint 功能可改為 Langflow 的對話持久化機制
- Windows OA 筆電同時運行 Langflow 服務(port 7860)+ LLM 推理服務(port 1234/6767)的資源是否充足

---

### 方案 6:danny-avila/LibreChat

- **GitHub**:https://github.com/danny-avila/LibreChat
- **Stars**:34,800+(截至評估日 2026-03-23)
- **分類**:A — 全棧 AI 聊天平台(取代 React 前端 + FastAPI 使用者管理層,附加多用戶 Chat 前台)
- **授權**:MIT
- **語言**:TypeScript 69.5%、JavaScript 29.4%
- **最新版本**:v0.8.4(2026-03-21,距評估 2 天)
- **貢獻者**:360 位
- **官網**:https://librechat.ai
- **核心定位**:自架 ChatGPT 替代方案;提供完整 Web UI + 多 LLM Provider 管理 + Agents(no-code) + MCP Client + (選配) RAG + 多用戶認證

#### 元件解析

| 元件 | 說明 | 是否必要 |
| ---- | ---- | -------- |
| Node.js API 服務 | Express.js REST backend,port 3080 | ✅ 必要 |
| React Web UI | 完整聊天介面,Vite 建置,port 3080 | ✅ 必要 |
| MongoDB | 使用者資料、對話紀錄、Agent 設定儲存 | ✅ 必要 |
| `librechat.yaml` | 所有 LLM endpoint、MCP Server、功能旗標設定 | ✅ 必要 |
| MeiliSearch | 對話歷史全文搜尋 | ⚠️ 選配 |
| RAG API | 獨立 Python FastAPI repo(`rag_api`),向量語意搜尋 | ⚠️ 選配 |

#### 安裝方式

| 方式 | 需 Docker | 外部依賴 | 難度 |
| ---- | --------- | -------- | ---- |
| **Docker Compose(推薦)** | ✅ 需要 | 全部自動(MongoDB + MeiliSearch + RAG API + Vector DB)| 低 |
| **npm(無 Docker)** | ❌ 不需要 | **MongoDB Community Server**(可安裝為 Windows 服務)| 中 |
| Helm(Kubernetes) | Kubernetes | 全部外部服務 | 高 |

**npm 安裝步驟(Windows,無 Docker)**:

```bash
git clone https://github.com/danny-avila/LibreChat.git
cd LibreChat
copy .env.example .env
# 編輯 .env,設定 MONGO_URI=mongodb://localhost:27017/LibreChat
npm ci
npm run frontend
npm run backend
# 瀏覽器開啟 http://localhost:3080/
```

> ℹ️ **MeiliSearch 為選配**:不安裝 MeiliSearch 僅影響對話歷史全文搜尋功能,核心聊天功能不受影響。
> MongoDB Community Server 可於 Windows 上安裝為系統服務,無需 Docker。

#### LLM 連接方式

LibreChat 本身**不提供 LLM 推理**,透過 `librechat.yaml` 連接各種 OpenAI-compatible Provider:

```yaml
endpoints:
  custom:
    - name: "Jan(本地 llama.cpp)"
      apiKey: "user_provided"
      baseURL: "http://localhost:1337/v1"
      models:
        default: ["Qwen2.5-VL-7B-Q4_K_M"]
    - name: "LM Studio"
      apiKey: "user_provided"
      baseURL: "http://localhost:1234/v1"
      models:
        default: ["qwen2.5-vl-7b-instruct"]
```

| LLM 後端 | 支援狀況 | 說明 |
| -------- | -------- | ---- |
| Jan(`jan serve`) | ✅ | 透過 OpenAI-compatible API,間接使用 llama.cpp Qwen2.5-VL |
| LM Studio(`lms server start`) | ✅ | 透過 OpenAI-compatible API,支援所有 llama.cpp GGUF |
| Ollama | ✅ | 透過 OpenAI-compatible proxy |
| OpenAI / Claude / Gemini(雲端) | ✅ | 需對外網路,內網離線環境不適用 |
| **裸 llama.cpp server(直連)** | ✅ | llama.cpp 本身即提供 OpenAI-compatible API |

#### Agents 功能詳解

LibreChat Agents ≠ LangGraph Agent,定位更接近 **ChatGPT Custom GPTs / OpenAI Assistants API**:

| 面向 | LibreChat Agents | LangGraph(SA 現有架構) |
| ---- | ---------------- | ----------------------- |
| 建立方式 | No-code UI Builder(拖拉設定)| Python 程式碼,完全自訂 |
| 定位 | 預定義 AI 助理,固定能力組合 | 可程式化狀態機,動態邏輯 |
| MCP 工具 | ✅ MCP Client(在 Agent 中使用 MCP Server 工具)| ✅ langchain-mcp-adapters |
| RAG | ✅ File Search(需額外部署 RAG API)| ✅ pgvector,程式化控制 |
| SSE 事件格式 | ⚠️ LibreChat 自訂格式,與 SA 文件三段格式(token/sources/done)不同 | ✅ 完全自訂 |
| Checkpoint / 持久化 | ✅ MongoDB 對話紀錄 | ✅ AsyncSqliteSaver(SQLite)|
| Code Interpreter | ⚠️ **需訂閱 code.librechat.ai 雲端付費 API** | 不適用 |
| Agent Chain | ✅ Mixture-of-Agents(beta,最多 10 個 Agent)| ✅ Multi-agent subgraph |
| Actions(OpenAPI tools)| ✅ 從 OpenAPI Spec 動態建立工具 | 需自行實作 |
| Deferred Tools | ✅ 大量 MCP 工具時按需載入,節省 context window | 不適用 |

> ⚠️ **Code Interpreter 為雲端付費服務**:需訂閱 [code.librechat.ai](https://code.librechat.ai/pricing),**非本地執行**,內網離線環境無法使用。

#### MCP 整合方式

LibreChat 為 **MCP Client**(不是 MCP Server)。在 `librechat.yaml` 中設定 MCP Server 連接:

```yaml
mcpServers:
  cad-tools:
    type: stdio
    command: python
    args: ["-m", "cad_mcp_server"]
    env:
      CAD_DATA_PATH: "C:\\mec\\cad_data"
```

- Agent Builder UI 中點選「Add Tools」→ 選擇 MCP Server → 指定可用工具
- **可直接整合 SA 文件 CAD Tools MCP Server(Port 8100)**,LibreChat Agent 可使用 `cad_command_query`、`cad_shortcut_lookup`
- Deferred Tools 機制:工具數量多時,按需載入至 LLM context,避免消耗過多 token

#### 多用戶認證

| 功能 | 支援狀況 |
| ---- | -------- |
| Email + Password | ✅ |
| OAuth2(GitHub / Google 等) | ✅ |
| LDAP / Active Directory | ✅(企業內網適合)|
| Agent 權限(ACL)| ✅ OWNER / EDITOR / VIEWER(v0.8.0+ 起)|
| 管理者介面 | ✅ 第一個建立的帳號自動成為管理者 |

#### 評估矩陣(C1–C7)

| 準則 | 評分 | 說明 |
| ---- | ---- | ---- |
| C1 非 Docker | ✅ | npm 安裝無需 Docker;MongoDB Community Server 可裝為 Windows 系統服務 |
| C2 Windows | ✅ | Node.js + npm 完整支援 Windows;官方有 Windows CI 測試 |
| C3 llama.cpp | ⚠️ | 需透過 Jan / LM Studio / 裸 llama.cpp server 的 OpenAI-compatible API 間接連接;無原生 GGUF 整合 |
| C4 功能完整 | ⚠️ | Chat UI + MCP Client(✅)+ RAG(選配部署)+ no-code Agent(⚠️ 非 LangGraph 等級);Code Interpreter 需雲端付費 |
| C5 低資源 | ⚠️ | MongoDB + Node.js 服務持續佔用記憶體(建議 8GB RAM);比 FastAPI + SQLite 原生架構重 |
| C6 存續性 | ✅ | 34.8k stars,360 位貢獻者,v0.8.4 距評估 2 天,極活躍 |
| C7 商用風險 | ✅ | MIT 完全開源,核心功能商用零風險;Code Interpreter 為選配雲端服務 |

#### 架構整合評估

**整合方式一:取代 React 前端(SSE Proxy 模式)**

```
LibreChat UI(port 3080)
     ↓ Custom Endpoint
FastAPI Proxy(port 8000)→ LangGraph → llama.cpp server(port 8080)
```

- LibreChat 作為使用者介面,後端 LangGraph Agent 邏輯完整保留
- ⚠️ **技術障礙**:需實作 FastAPI Proxy 將 LangGraph 三段 SSE 格式(token/sources/done)轉換為 LibreChat 期望的 OpenAI streaming 格式
- ⚠️ LibreChat 對話 Checkpoint 儲存於 MongoDB,而非 SA 文件的 SQLite `langgraph_checkpoints`

**整合方式二:附加多用戶 AI 工具站(推薦)**

```
SA 現有架構(完整保留,內部使用)
     ‖
LibreChat(獨立部署,port 3080)
     ↓ Custom Endpoint
Jan / LM Studio(port 1337/1234)
     ↓ MCP Client
CAD Tools MCP Server(port 8100)
```

- LibreChat 作為**獨立多用戶 AI 工具站**,不干擾現有 SA 架構
- 部內非技術人員透過瀏覽器使用 CAD 問答、文件查詢等功能
- ✅ 無需修改任何現有 SA 程式碼,平行部署
- ✅ MCP Client 可直接調用 CAD Tools MCP Server 工具

#### 總評

| 向度 | 評分(5分制)| 說明 |
| ---- | ------------ | ---- |
| 功能符合度 | ⭐⭐⭐ (3/5) | Chat UI + 多用戶管理強;但 Agent 為 no-code 等級,Code Interpreter 需雲端付費,RAG 需額外部署 |
| 部署便利性 | ⭐⭐⭐ (3/5) | npm 安裝可行,但 MongoDB 安裝為額外前置作業;Docker Compose 最簡但需 Docker 權限 |
| 資源消耗 | ⭐⭐⭐ (3/5) | MongoDB + Node.js 持續服務,資源需求高於 SA FastAPI + SQLite 原生架構 |
| 公司存續性 | ⭐⭐⭐⭐⭐ (5/5) | 34.8k stars、MIT、極活躍社群,長期維護風險低 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源;Code Interpreter 為選配付費服務,不影響核心功能 |
| **綜合推薦** | ⚠️ **特定場景建議**:適合附加部署為多用戶 AI 工具站;不建議取代現有 SA LangGraph 核心架構 ||

**建議定位(附加部署)**:

LibreChat 最適合 MEC-AI 的**補充場景**——**多用戶 AI 對話前台**:

當部內多位非技術人員需要透過瀏覽器使用 AI 工具(CAD 問答、文件查詢等),LibreChat 提供:
1. 開箱即用的多用戶帳號管理(含 LDAP,無需自行實作登入系統)
2. Web UI 連接本地 Jan / LM Studio(llama.cpp GGUF,離線內網可用)
3. MCP Client 直接調用 CAD Tools MCP Server(port 8100)工具
4. 對話管理、歷史紀錄、Agent 設定介面完整

**不建議**:以 LibreChat 取代 SA 文件的核心 LangGraph Agent 架構——LibreChat Agents 為 no-code 助理設定介面,無法精確對應 SA 文件的 SSE 三段事件格式(token/sources/done)、AsyncSqliteSaver Checkpoint、多模態 Qwen2.5-VL 圖片分析工作流程。

---

### 方案 7:openclaw/openclaw(OpenClaw)

- **GitHub**:https://github.com/openclaw/openclaw
- **Stars**:330,000+(截至評估日 2026-03-23,極高人氣)
- **分類**:B — Agent 框架(個人助理運行時 / Omni-Channel Bot Gateway)
- **授權**:MIT
- **語言**:TypeScript 88.6%、Swift 7.1%(iOS)、Kotlin 1.6%(Android)
- **最新版本**:v2026.3.13(上週發布)
- **貢獻者**:1,269 位
- **官網**:https://openclaw.ai · 文件:https://docs.openclaw.ai
- **核心定位**:個人 AI 助理平台,架設於自有設備上,透過 Gateway WebSocket 控制面統一管理多個通訊頻道(WhatsApp/Telegram/Slack/Discord/Signal/iMessage 等 22 種)

#### 架構概覽

```
WhatsApp / Telegram / Slack / Discord / Signal / iMessage / Matrix / Teams / ...(22 種頻道)
               │
               ▼
┌───────────────────────────────┐
│         Gateway(控制面)      │
│     ws://127.0.0.1:18789      │
│   - 多頻道路由、會話管理        │
│   - 工具呼叫(技能/瀏覽器/節點)│
│   - Cron / Webhook / 安全策略  │
└──────────────┬────────────────┘
               ├─ Pi agent(RPC 模式,工具串流)
               ├─ CLI(openclaw …)
               ├─ WebChat UI
               ├─ macOS App(選配)
               └─ iOS / Android 節點(選配)
```

**關鍵子系統**:
| 子系統 | 說明 | 是否與 SA 相關 |
| ------ | ---- | -------------- |
| Gateway WS 控制面 | 單一 WebSocket 端點,管理頻道、工具、事件 | — |
| Pi Agent 運行時 | RPC 模式,含工具串流、區塊串流 | 類似 LangGraph,但封閉 |
| Skills(技能)| `~/.openclaw/workspace/skills/`,可從 ClawHub 安裝 | 類似 MCP 工具,但非 MCP 協議 |
| Sessions 模型 | 主會話(1:1)/ 群組隔離,Agent-to-Agent 協作 | 類似 LangGraph checkpoint |
| Cron / Webhook | 定時觸發 + HTTP Webhook 自動化 | 額外自動化能力 |
| 沙箱模式 | 群組對話可啟動 Docker 沙箱隔離執行環境 | 安全機制 |

#### 安裝方式

```bash
# 全域安裝(Node.js 24 推薦,或 22.16+)
npm install -g openclaw@latest

# 引導設定(建議,互動式)
openclaw onboard --install-daemon
```

| 平台 | 支援狀況 | 說明 |
| ---- | -------- | ---- |
| macOS | ✅ 原生 | 含 App 版(選配)|
| Linux | ✅ 原生 | |
| **Windows** | ⚠️ **WSL2 強制建議** | README:「Windows (via WSL2; strongly recommended)」;Windows 原生未全面測試 |
| Docker | ⚠️ 選配 | 沙箱模式用;非主要安裝方式 |

#### LLM 連接方式

OpenClaw **不提供本地 LLM 推理**,直接連接雲端 API:

```json
{
  "agent": {
    "model": "anthropic/claude-opus-4-6"
  }
}
```

| LLM 類型 | 支援狀況 | 說明 |
| -------- | -------- | ---- |
| OpenAI(GPT-5.2 / Codex) | ✅ | 主要贊助商 |
| Anthropic Claude | ✅ | 預設範例模型 |
| 其他雲端 Provider | ✅ | Model failover / OAuth 輪換 |
| **本地 llama.cpp(GGUF)** | ❌ | **無本地推理支援** |
| **Ollama / LM Studio** | ❌ | **無 OpenAI-compatible 本地端點配置** |

> ❌ **C3 關鍵缺口**:OpenClaw 完全依賴雲端 LLM API,無法在內網離線環境下使用本地 llama.cpp Qwen2.5-VL 模型。

#### 頻道支援(共 22 種)

WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、BlueBubbles(iMessage 推薦)、iMessage(舊版)、IRC、Microsoft Teams、Matrix、Feishu、LINE、Mattermost、Nextcloud Talk、Nostr、Synology Chat、Tlon、Twitch、Zalo、Zalo Personal、WebChat

> MEC-AI SA 文件為 OA 員工內部使用工具,**不需要通訊頻道整合**——此為 OpenClaw 最核心價值,但完全不適用於 SA 場景。

#### 功能對比(vs SA 文件需求)

| SA 需求 | OpenClaw 現況 |
| ------- | ------------- |
| FastAPI 後端(Python)| ❌ Node.js Gateway,無 Python 生態整合 |
| LangGraph Agent 狀態機 | ⚠️ Pi agent 有 Agent loop,但設計為個人助理(非可程式化狀態機)|
| langchain-mcp-adapters | ❌ 無 MCP 協議支援(使用私有 Gateway WS 協議)|
| llama.cpp server 直接推理 | ❌ 僅支援雲端 API,無本地 GGUF |
| pgvector 向量搜尋 | ❌ 無 RAG 機制 |
| nomic-embed-text Embedding | ❌ 無 Embedding 功能 |
| SSE 串流(token/sources/done)| ❌ 使用自有 WS streaming 協議 |
| 多模態圖片分析(Qwen2.5-VL)| ⚠️ 支援多模態(圖片/音訊/影片),但需雲端視覺模型 |
| 離線內網完全隔離 | ❌ 強依賴雲端 LLM API |
| Windows 無 Docker 直接安裝 | ⚠️ WSL2 強制建議(非純 Windows 原生)|

#### 評估矩陣(C1–C7)

| 準則 | 評分 | 說明 |
| ---- | ---- | ---- |
| C1 非 Docker | ✅ | `npm install -g openclaw@latest` 無需 Docker;daemon 模式以 launchd/systemd 後台運行 |
| C2 Windows | ⚠️ | 官方**強烈建議 WSL2**;Windows 原生(PowerShell)安裝未受到充分測試 |
| C3 llama.cpp | ❌ | 僅支援雲端 LLM API(OpenAI、Anthropic 等);**無本地 GGUF 推理能力** |
| C4 功能完整 | ⚠️ | Agent loop + Skills + 多頻道強;但無 RAG、無 MCP 標準協議、無 pgvector;設計目標與 SA 文件完全不同 |
| C5 低資源 | ✅ | 輕量 Node.js Gateway daemon,資源需求低 |
| C6 存續性 | ✅ | 330k stars、1,269 位貢獻者、極活躍(最新版距評估 10 天)|
| C7 商用風險 | ✅ | MIT 完全開源,商用零風險 |

#### 值得借鑑的設計模式

雖然 OpenClaw 不建議用於 MEC-AI,但有幾個設計值得參考:

1. **Skills 系統**:以 `SKILL.md` 描述技能,Agent 可按需載入(類似 Langflow MCP Server / Jan Skills)
2. **Gateway DM 安全策略**:`dmPolicy="pairing"` 配對碼機制,防止未授權使用者存取
3. **Agent-to-Agent(sessions_* tools)**:跨會話協作模式(`sessions_send`),可啟發 Multi-Agent 設計
4. **Cron + Webhook 觸發**:定時任務 + 外部 HTTP 觸發,類似 LangGraph 的外部事件驅動

#### 總評

| 向度 | 評分(5分制)| 說明 |
| ---- | ------------ | ---- |
| 功能符合度 | ⭐ (1/5) | 設計目標(個人通訊助理)與 SA 文件(企業 AI 後端)完全不同;雲端 LLM 依賴是根本性障礙 |
| 部署便利性 | ⭐⭐⭐⭐ (4/5) | npm 一行安裝,daemon 模式自動後台運行 |
| 資源消耗 | ⭐⭐⭐⭐⭐ (5/5) | 輕量 Node.js Gateway,資源消耗低 |
| 公司存續性 | ⭐⭐⭐⭐⭐ (5/5) | 330k stars,規模極大,長期維護有保障 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源,無商用風險 |
| **綜合推薦** | ❌ **不建議**:雲端 LLM 強依賴(C3 缺口)+ Windows 需 WSL2(C2 限制)+ 設計定位(個人通訊助理)與 MEC-AI 企業 AI 後端需求根本不同 ||

**建議定位**:OpenClaw 是**個人 AI 助理(Personal AI Assistant)**領域的頂尖開源專案,學習其 Skills 系統和 Gateway 架構設計有參考價值,但**不適合用於 MEC-AI 任何架構層的取代或強化**。

> 若 MEC-AI 未來有**通訊頻道整合需求**(如讓員工透過 Telegram/Teams 查詢 CAD 指令),OpenClaw 可作為專用的「頻道 Bot Gateway」附加部署,但前提是解決本地 LLM 接入問題(目前 OpenClaw 無此能力)。

---

### 方案 8:HKUDS/nanobot

- **GitHub**:https://github.com/HKUDS/nanobot
- **Stars**:35,500+(截至評估日 2026-03-23)
- **分類**:B — Agent 框架(超輕量個人助理運行時,OpenClaw 的 Python 超輕量實作)
- **授權**:MIT
- **語言**:Python 98.0%、TypeScript 1.1%
- **最新版本**:v0.1.4.post5(上週發布,幾乎每日更新)
- **貢獻者**:164 位
- **組織**:HKUDS(香港大學數據科學研究組)
- **PyPI**:`pip install nanobot-ai`
- **核心定位**:OpenClaw 的超輕量 Python 複刻版——比 OpenClaw 少 99% 程式碼,以 Python 生態實作相同的個人 AI 助理 + 多頻道 Gateway 功能

#### 與 OpenClaw 對比

| 面向 | nanobot | OpenClaw |
| ---- | ------- | -------- |
| 語言 | **Python 98%**(與 SA 生態一致)| TypeScript 88.6% |
| 安裝 | `pip install nanobot-ai` | `npm install -g openclaw@latest` |
| 程式碼量 | ≈OpenClaw 的 1%(極簡,易讀易改)| 大型完整專案 |
| MCP Client | ✅ 支援(stdio + HTTP,相容 Claude Desktop 設定)| ⚠️ 部分支援 |
| 本地 LLM | ⚠️ Ollama / vLLM / custom OpenAI-compatible | ❌ 僅雲端 API |
| Windows | ⚠️ Python 跨平台但無官方 Windows 文件 | ⚠️ 需 WSL2 |
| Stars | 35.5k | 330k |

> ✅ **關鍵優勢(vs OpenClaw)**:nanobot 透過 `custom` 或 `vllm` Provider 可連接任何 OpenAI-compatible 端點,包含本地 llama.cpp server——OpenClaw 完全做不到這點。

#### 安裝方式

```bash
# 標準安裝(穩定)
pip install nanobot-ai

# 最新開發版
git clone https://github.com/HKUDS/nanobot.git
cd nanobot
pip install -e .

# 初始化
nanobot onboard
# 或互動式精靈
nanobot onboard --wizard
```

| 平台 | 支援狀況 | 說明 |
| ---- | -------- | ---- |
| macOS / Linux | ✅ | 主要支援平台,有 systemd 服務設定 |
| **Windows** | ⚠️ | Python 可跨平台使用,但 README 無 Windows 官方說明;WhatsApp bridge 需重建(`rm -rf`),此指令在 Windows 需調整 |
| Docker | ✅ | 官方提供 Dockerfile + docker-compose.yml |

#### LLM 連接方式

```json
{
  "providers": {
    "custom": {
      "apiBase": "http://localhost:8080/v1",
      "apiKey": "na"
    }
  },
  "agents": {
    "defaults": {
      "model": "qwen2.5-vl-7b",
      "provider": "custom"
    }
  }
}
```

| Provider | 類型 | 說明 |
| -------- | ---- | ---- |
| `custom` | **任何 OpenAI-compatible 端點** | ✅ 可直連 llama.cpp server(`localhost:8080/v1`)|
| `vllm` | 本地/遠端 OpenAI-compatible | ✅ vLLM + llama.cpp + LM Studio + Jan |
| `ollama` | Ollama 本地 | ✅ 低門檻本地 LLM |
| `openrouter` | 雲端 Gateway | 全模型訪問,推薦初學者 |
| `anthropic` | Claude 直連 | |
| `openai` | GPT 直連 | |
| `deepseek` | DeepSeek 直連 | |
| `dashscope` | Qwen(阿里雲)| `qwen2.5-vl` 可用 |

> ⚠️ C3 評估:nanobot 可透過 `custom` provider 連接 **llama.cpp server**(OpenAI-compatible API),但**無原生 GGUF 整合**(不能直接載入 `.gguf` 檔),需先啟動 llama.cpp server 作為中介服務。

#### MCP 整合方式

nanobot 是 **MCP Client**,設定格式與 Claude Desktop / Cursor 完全相容:

```json
{
  "tools": {
    "mcpServers": {
      "cad-tools": {
        "command": "python",
        "args": ["-m", "cad_mcp_server"]
      },
      "cad-tools-remote": {
        "url": "http://localhost:8100/sse",
        "headers": {}
      }
    }
  }
}
```

支援兩種傳輸模式:
- **Stdio**:本地 MCP Server(`command + args`),適合 CAD Tools MCP Server(Port 8100 stdio 模式)
- **HTTP/SSE**:遠端 MCP Server 端點

MCP 工具在啟動時自動發現並註冊,LLM 可當作內建工具使用,無需額外設定。

#### 功能清單

| 功能 | 支援狀況 | 說明 |
| ---- | -------- | ---- |
| Agent loop(LLM ↔ 工具呼叫)| ✅ | `agent/loop.py`,精簡易讀 |
| Persistent Memory | ✅ | token-based 記憶,自動管理 |
| Skills 系統 | ✅ | `~/.nanobot/workspace/skills/`,可從 ClawHub 安裝 |
| MCP Client | ✅ | stdio + HTTP,相容 Claude Desktop |
| Web Search | ✅ | Brave / Tavily / Jina / SearXNG / DuckDuckGo(自動 fallback)|
| Cron(排程任務)| ✅ | 定時觸發 |
| Heartbeat(主動喚醒)| ✅ | 定時推送訊息 |
| 多頻道 | ✅ | Telegram / Discord / WhatsApp / Feishu / Slack / Email / QQ / WeCom / DingTalk |
| Subagent(背景任務)| ✅ | 背景執行子任務 |
| 多模態(圖片/音訊)| ⚠️ | 路線圖中("Multi-modal: See and hear"),目前有限制 |
| RAG / pgvector | ❌ | 無 |
| Embedding API | ❌ | 無 |
| 自訂 SSE 格式 | ❌ | 使用自有內部協議,非 SA 三段 SSE |

#### 評估矩陣(C1–C7)

| 準則 | 評分 | 說明 |
| ---- | ---- | ---- |
| C1 非 Docker | ✅ | `pip install nanobot-ai`,無需 Docker;也支援 Docker 可選部署 |
| C2 Windows | ⚠️ | Python 可跨平台,但官方無 Windows 安裝文件;WhatsApp bridge 指令(`rm -rf`)需 Windows 替代;CLI 基本功能可用 |
| C3 llama.cpp | ⚠️ | 透過 `custom` 或 `vllm` provider 可連接 llama.cpp server(OpenAI-compatible API);**無原生 GGUF 支援**,需先啟動 llama.cpp/LM Studio/Jan 作中介 |
| C4 功能完整 | ⚠️ | Agent loop + MCP Client(可接 CAD Tools MCP Server)+ Skills + Memory 均有;但**無 RAG/pgvector**、無 Embedding API、無自訂 SSE 格式 |
| C5 低資源 | ✅ | 「99% smaller than OpenClaw」;純 Python daemon,記憶體佔用極低 |
| C6 存續性 | ✅ | 35.5k stars、HKU 學術組織背書、幾乎每日發布更新(v0.1.4.post5),活躍度極高 |
| C7 商用風險 | ✅ | MIT 完全開源,商用零風險 |

#### 與 SA 文件需求對照

| SA 需求 | nanobot 現況 |
| ------- | ------------ |
| FastAPI 後端(Python)| ⚠️ 同為 Python,但 nanobot 是獨立進程,非 FastAPI web server |
| LangGraph Agent 狀態機 | ⚠️ 有 Agent loop(精簡版),非 LangGraph 程式化狀態機 |
| langchain-mcp-adapters(MCP)| ✅ 原生 MCP Client,可直接連 CAD Tools MCP Server |
| llama.cpp server 直接推理 | ⚠️ 透過 `custom` provider 連 OpenAI-compatible API(需先啟 llama.cpp server)|
| pgvector 向量搜尋 | ❌ 無 RAG 機制 |
| nomic-embed-text Embedding | ❌ 無 Embedding 功能 |
| SSE 串流(token/sources/done)| ❌ 使用自有內部協議 |
| 多模態圖片分析(Qwen2.5-VL)| ⚠️ 路線圖中,接雲端視覺模型可用,自架需 custom provider |
| 離線內網完全隔離 | ⚠️ 使用 custom/vllm provider 時可完全離線;Web Search 可設 SearXNG 自架 |
| Windows 無 Docker 直接安裝 | ⚠️ Python pip 可安裝,但無官方 Windows 操作文件 |

#### 整合評估(附加 MCP Bot 場景)

nanobot 最適合 MEC-AI 的**附加 Bot 場景**——比 OpenClaw **更適合**,因為:

```
員工 Telegram / Slack / Discord
        ↓
nanobot Gateway(Python daemon)
        ↓ MCP Client
CAD Tools MCP Server(Port 8100)→ cad_command_query / cad_shortcut_lookup
        ↓ custom provider
LM Studio / Jan(llama.cpp, localhost:1234)→ Qwen2.5-VL
```

- ✅ 純 Python,與 SA 團隊技術棧一致,方便維護和擴充
- ✅ MCP Client 設定格式相容 Claude Desktop,複製貼上即可接入 CAD Tools MCP Server
- ✅ `custom` provider 可接本地 Jan / LM Studio(llama.cpp GGUF),完整內網離線
- ✅ SearXNG 自架搜尋(零外部依賴),完全離線內網

#### 總評

| 向度 | 評分(5分制)| 說明 |
| ---- | ------------ | ---- |
| 功能符合度 | ⭐⭐ (2/5) | MCP Client + Skills + Memory 佳;但缺 RAG、Embedding、自訂 SSE,定位仍是個人助理 |
| 部署便利性 | ⭐⭐⭐⭐⭐ (5/5) | `pip install nanobot-ai` 一行安裝,比所有其他方案更簡單 |
| 資源消耗 | ⭐⭐⭐⭐⭐ (5/5) | 極輕量純 Python,資源消耗最低 |
| 公司存續性 | ⭐⭐⭐⭐ (4/5) | 35.5k stars、HKU 學術組織、極活躍;相對 OpenClaw 規模較小 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源,無任何商用風險 |
| **綜合推薦** | ⚠️ **特定場景條件建議**:不建議取代 SA LangGraph 核心架構;但作為**多頻道 Bot 附加平台**(接入 CAD MCP Server + llama.cpp + 員工通訊軟體),比 OpenClaw 更適合 MEC-AI 環境 ||

**建議定位**:

nanobot 是 MEC-AI 中**附加多頻道 Bot Gateway 的首選輕量方案**(優於 OpenClaw):

1. **Python 生態**:SA 後端是 Python/FastAPI,nanobot 同樣 Python,技術棧一致,團隊維護成本低
2. **MCP Client 接入**:幾乎零設定接入 CAD Tools MCP Server,設定格式與 Claude Desktop 相同
3. **接通本地 llama.cpp**:透過 `custom` provider 連接已部署的 Jan / LM Studio,無需額外雲端費用
4. **超輕量**:與 LangGraph + FastAPI 架構並行部署,資源競爭低

**核心限制**:無 RAG/pgvector、無自訂 SSE 格式——這些需求仍需 SA 主架構(LangGraph + FastAPI + pgvector)提供,nanobot 定位為輔助頻道層,不取代核心 Agent 邏輯。

---

### 方案 9:qwibitai/nanoclaw(NanoClaw)

- **GitHub**:https://github.com/qwibitai/nanoclaw
- **Stars**:24,900+(截至評估日 2026-03-23)
- **分類**:B — Agent 框架(OpenClaw 的容器化安全 TypeScript 替代品,Claude Agent SDK 驅動)
- **授權**:MIT
- **語言**:TypeScript 95.0%、Python 3.0%、Shell 1.1%
- **最新版本**:v1.2.21(2 天前,極活躍)
- **貢獻者**:56 位
- **官網**:https://nanoclaw.dev
- **核心定位**:OpenClaw 的安全強化輕量替代品——每個 AI Agent 在獨立 Linux 容器(Docker / Apple Container)中執行,比 OpenClaw 的應用層權限管控更具 OS 級安全隔離

#### 核心設計哲學

> *"NanoClaw provides that same core functionality [as OpenClaw], but in a codebase small enough to understand: one process and a handful of files."*

| 哲學 | 說明 |
| ---- | ---- |
| **Secure by isolation** | Agent 執行在 Linux container,只有明確 mount 的目錄可存取,非應用層 allowlist |
| **Small enough to understand** | 單一 Node.js 進程,數個源文件,無微服務 |
| **Built for the individual** | 鼓勵 fork + 自訂代碼,非配置文件驅動 |
| **Skills over features** | 功能以 Claude Code skill(`/add-telegram`)形式提交,不膨脹核心代碼 |
| **AI-native setup** | 無安裝精靈,`/setup` 由 Claude Code 引導完成 |

#### 技術架構

```
Channels --> SQLite --> Polling loop --> Container (Claude Agent SDK) --> Response
```

- **單一 Node.js 進程**(TypeScript)
- **每個 Agent 一個容器**(Docker 或 Apple Container on macOS)
- **每群組隔離記憶**:各群組有獨立 `CLAUDE.md`、獨立 filesystem、獨立容器
- **IPC via filesystem**:容器間透過檔案系統通訊
- **SQLite**:儲存訊息、群組、會話、狀態

#### 安裝要求

| 必要條件 | 說明 |
| -------- | ---- |
| Node.js 20+ | JavaScript 執行環境 |
| Claude Code | **必須**,設定/自訂均透過 Claude Code skills |
| Docker / Apple Container | **必須**,Agent 執行環境 |
| macOS 或 Linux | **官方支援平台** |

> ⚠️ **C1、C2 雙重障礙**:Docker **是 NanoClaw 安全模型的核心**,非可選元件;且官方 Requirements 明確只列 macOS 或 Linux(FAQ 僅提 "Windows via WSL2")。

#### LLM 連接

NanoClaw 運行在 **Anthropic Claude Agent SDK** 上,預設直接呼叫 Anthropic API:

```env
ANTHROPIC_BASE_URL=https://your-api-endpoint.com
ANTHROPIC_AUTH_TOKEN=your-token-here
```

| 類型 | 支援狀況 | 說明 |
| ---- | -------- | ---- |
| Anthropic Claude(官方)| ✅ | 主要設計目標,Claude Agent SDK |
| Anthropic-format 相容端點 | ⚠️ | 設定 `ANTHROPIC_BASE_URL` 可連,但需 Anthropic API 格式相容 |
| **OpenAI-compatible(llama.cpp / LM Studio / Jan)**| ❌ | **Anthropic API format ≠ OpenAI API format**,無法直接連接 |
| Ollama(透過 Anthropic proxy)| ⚠️ | 需 Anthropic format proxy 轉換中介層,複雜度高 |

> ❌ **C3 主要障礙**:SA 文件使用 llama.cpp / LM Studio / Jan 的 **OpenAI-compatible API**,而 NanoClaw 需要 **Anthropic API format**——兩者不相容,無法直接連接本地 GGUF 推理服務。

#### 與同類方案比較

| 面向 | NanoClaw | nanobot | OpenClaw |
| ---- | -------- | ------- | -------- |
| 語言 | TypeScript 95% | **Python 98%** | TypeScript 88% |
| LLM API | **Anthropic-only** | OpenRouter / Ollama / custom(任何 OpenAI-compatible)| 雲端多 Provider |
| 本地 llama.cpp | ❌(Anthropic format 不相容)| ⚠️(custom provider,需 llama.cpp server)| ❌ |
| Docker 需求 | ❌ **強制(安全核心)** | ✅ 選配 | ✅ 選配 |
| Windows | ❌ macOS/Linux only | ⚠️ Python 跨平台 | ⚠️ WSL2 |
| 安全隔離 | ✅ **容器等級(OS-level)** | 無特別隔離 | 應用層 allowlist |
| 設置方式 | Claude Code skills `/setup` | `nanobot onboard` | `openclaw onboard` |
| Claude Code 依賴 | **必須安裝** | 無需 | 無需 |

#### 評估矩陣(C1–C7)

| 準則 | 評分 | 說明 |
| ---- | ---- | ---- |
| C1 非 Docker | ❌ | Docker(或 Apple Container)是 NanoClaw 安全隔離的**核心架構**,無法移除;每個 Agent 強制執行在獨立容器中 |
| C2 Windows | ❌ | 官方 Requirements 明確只列 "macOS or Linux";Windows 僅在 FAQ 提到 WSL2(非官方支援)|
| C3 llama.cpp | ⚠️ | 技術上可設定 `ANTHROPIC_BASE_URL` 連接 Anthropic-format 相容端點;但 llama.cpp/LM Studio/Jan 是 **OpenAI-compatible API format**,無法直接接通;需要格式轉換中介層(複雜度高)|
| C4 功能完整 | ⚠️ | 多頻道(WhatsApp/Telegram/Discord/Slack/Gmail)+ 容器沙箱 + 排程任務 + 群組記憶;**無 RAG/pgvector、無 Embedding API、無自訂 SSE** |
| C5 低資源 | ⚠️ | 每個 Agent session 一個 Docker container,資源需求明顯高於純 daemon 方式(nanobot/OpenClaw)|
| C6 存續性 | ✅ | 24.9k stars,幾乎每小時有提交,v1.2.21(2 天前),積極發展 |
| C7 商用風險 | ✅ | MIT 完全開源,商用零風險 |

#### 與 SA 文件需求對照

| SA 需求 | NanoClaw 現況 |
| ------- | ------------- |
| FastAPI 後端(Python)| ❌ TypeScript Node.js,無 Python 生態整合 |
| LangGraph Agent 狀態機 | ⚠️ Claude Agent SDK 有 Agent loop,但非可程式化狀態機 |
| langchain-mcp-adapters(MCP)| ❌ README 和 CONTRIBUTING 中未提及 MCP 協議支援 |
| llama.cpp server 直接推理 | ❌ Anthropic API format 不相容於 OpenAI-compatible(llama.cpp/LM Studio/Jan)|
| pgvector 向量搜尋 | ❌ 無 RAG 機制 |
| nomic-embed-text Embedding | ❌ 無 Embedding 功能 |
| SSE 串流(token/sources/done)| ❌ 使用 Claude Agent SDK 串流協議 |
| 離線內網完全隔離 | ❌ Claude API 需對外網路連線 |
| Windows 無 Docker 直接安裝 | ❌ Docker 強制 + macOS/Linux only |

#### 總評

| 向度 | 評分(5分制)| 說明 |
| ---- | ------------ | ---- |
| 功能符合度 | ⭐ (1/5) | 多頻道 Bot 功能存在但 Anthropic-only LLM + Docker 強制 + 無 MCP 標準協議 = 三重障礙 |
| 部署便利性 | ⭐⭐ (2/5) | Claude Code 引導設定有趣,但 Docker 強制且 Windows 不支援,阻礙在 MEC-AI 環境部署 |
| 資源消耗 | ⭐⭐⭐ (3/5) | 每 Agent 一個 container 資源較重,但 OS-level 隔離有安全優勢 |
| 公司存續性 | ⭐⭐⭐⭐ (4/5) | 24.9k stars,極活躍,但相對 OpenClaw/nanobot 社群規模較小 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源,無商用風險 |
| **綜合推薦** | ❌ **不建議**:Docker 強制(C1)+ Windows 不支援(C2)+ Anthropic API-only 無法接本地 llama.cpp(C3)三重障礙,MEC-AI 環境不適用 ||

**建議定位**:NanoClaw 是 OpenClaw 生態中安全性最強的輕量替代品(OS-level 容器隔離 vs 應用層 allowlist),其容器沙箱設計值得參考,但**不適合 MEC-AI 環境**——Docker 強制要求、Windows 不支援、以及 Anthropic API format 與 SA 架構的 llama.cpp OpenAI-compatible API 根本不相容。對比同類方案,nanobot(Python / OpenAI-compatible / pip 安裝)在 MEC-AI 附加場景的適用性遠優於 NanoClaw。

---

### 方案10:PicoClaw(sipeed/picoclaw)

#### 基本資訊

| 欄位 | 內容 |
| --- | --- |
| GitHub | https://github.com/sipeed/picoclaw |
| 星數 / 授權 | 25.8k ⭐ / MIT |
| 主要語言 | Go 89.2%、TypeScript 9.9%、Shell 0.3% |
| 最新版本 | v0.2.3(上週,共 9 個 release)|
| 貢獻者 | 178 人 |
| 主導組織 | Sipeed(深圳矽速科技,LicheeRV / MaixCAM / NanoKVM 製造商)|
| 官網 | https://picoclaw.io/ |

#### 專案定位

PicoClaw 是由 **Sipeed 硬體公司**主導開發的 Go 語言超輕量 AI Agent,**非任何現有專案(OpenClaw / nanobot / NanoClaw)的 fork**,而是以 nanobot 為設計靈感、從零以 Go 重寫(自我引導式:95% 代碼由 AI Agent 自身生成)。核心目標:在 **$10 美元的 RISC-V 嵌入式硬體**上提供完整的本地 AI 助理體驗。

#### 架構示意

```
User (CLI / Chat App / Web UI / System Tray)
    ↓
picoclaw gateway(單一 Go 靜態 binary)
    ↓
Agent loop (pkg/agent/loop.go)
    ├── Skills(workspace / global / builtin Markdown定義)
    ├── MCP native client(stdio / HTTP,v0.2.1 加入)
    ├── Tools(web / exec / file / vision / spawn)
    ├── Heartbeat(HEARTBEAT.md,每 30 分鐘)
    └── Cron scheduler(排程任務)
    ↓
LLM Provider(OpenAI-compatible api_base 設定)
    └── llama.cpp server / LM Studio / Jan / Ollama / 雲端 API
```

**資源對比(官方 benchmark,0.8GHz 單核)**:

| 框架 | 語言 | RAM | 啟動時間 | 最低硬體成本 |
| --- | --- | --- | --- | --- |
| OpenClaw | TypeScript | >1 GB | >500 秒 | Mac Mini $599 |
| nanobot | Python | >100 MB | >30 秒 | Linux SBC ~$50 |
| **PicoClaw** | **Go** | **<10 MB** | **<1 秒** | **$10 RISC-V 板** |

#### MEC-AI 關鍵準則逐項分析

**C1:非 Docker 原生安裝**

PicoClaw 發行為**單一 Go 靜態二進位**(無 C-runtime 依賴),從 GitHub Releases 或官網一鍵下載即可執行:

```bash
wget https://github.com/sipeed/picoclaw/releases/latest/download/picoclaw_Linux_arm64.tar.gz
tar xzf picoclaw_Linux_arm64.tar.gz
./picoclaw onboard
```

Docker Compose 文件存在,但明確定位為**可選部署路徑**(非架構強制)。本地 binary 模式完全不需 Docker。

> ✅ **C1 完全符合**:單一 Go binary,pip / npm / Docker 一概不需要,安裝體驗最乾淨。

---

**C2:支援 Windows**

v0.2.3 新聞明確宣告:**"System tray UI (Windows & Linux)"**;repo 語言清單包含 `Inno Setup`(Windows 安裝精靈格式);`.goreleaser.yaml` 顯示多平台交叉編譯支援。

> ✅ **C2 完全符合**:官方 Windows 原生支援(含 system tray UI),非 WSL2 繞接方案。

---

**C3:支援 llama.cpp(GGUF 本地推理)**

PicoClaw 的 provider 系統採用 **OpenAI-compatible 協議族**,任何端點均可透過 `api_base` 自定義:

```json
{
  "model_list": [
    {
      "model_name": "qwen2.5-vl-7b",
      "model": "openai/qwen2.5-vl-7b-q4_k_m",
      "api_base": "http://localhost:8080/v1",
      "api_key": "not-needed"
    }
  ]
}
```

SA 架構使用的 llama.cpp server(預設 `localhost:8080`)提供 `/v1/chat/completions` OpenAI-compatible API,與 PicoClaw `openai/` 協議族**完全相容**,無需任何 wrapper 或 middleware。

相比 nanobot(透過未文件化的 `custom` provider 連入),PicoClaw 的 `api_base` 自定義為**官方文件化功能**,穩定性更高。

> ✅ **C3 完全符合**:OpenAI-compatible `api_base` 直連 llama.cpp / LM Studio / Jan,官方支援路徑。

---

**C4:功能完整性(RAG + MCP + SKILLS + AGENT)**

| 子功能 | PicoClaw 支援 | 說明 |
| --- | --- | --- |
| MCP Client | ✅ | 原生 MCP 協議整合(v0.2.1 加入),可連接 CAD Tools MCP Server Port 8100 |
| Skills 系統 | ✅ | workspace / global / builtin 三層 Markdown 技能定義 |
| Agent 邏輯 | ✅ | AGENT.md / SOUL.md / USER.md 結構化定義;spawn 子 Agent |
| 長期記憶 | ✅ | MEMORY.md / sessions / state 持久化 |
| 排程任務 | ✅ | HEARTBEAT.md(每 30 分鐘)+ cron 排程器 |
| 多頻道 | ✅ | Telegram、Discord、WhatsApp、Matrix、QQ、DingTalk、LINE、WeCom |
| Vision(多模態)| ✅ | 圖片/檔案直送 Agent,自動 base64 編碼 |
| RAG / Embedding | ❌ | 無向量搜尋、無 Embedding API、無 pgvector 整合 |
| 自訂 SSE 三段格式 | ❌ | SA 規定的 `token/sources/done` 格式需 LangGraph 主架構提供 |

> ⚠️ **C4 條件符合**:MCP + Skills + Agent + 記憶 + 多頻道 + Vision 完整;RAG/Embedding 須依賴主架構 pgvector,自訂 SSE 格式亦非 PicoClaw 職責範圍。

---

**C5:低資源消耗**

| 指標 | PicoClaw | 說明 |
| --- | --- | --- |
| 記憶體 | <10 MB(穩定版)| 最新版因快速 PR 合并約 10–20 MB,計劃優化 |
| 啟動時間 | <1 秒 | 0.6 GHz 單核,vs OpenClaw 500 秒+ |
| CPU 佔用 | 極低 | Go 靜態 binary,無解釋器開銷 |
| 磁碟安裝 | 單一 binary | 無 Python venv / node_modules |
| Docker | 不需要 | 節省完整容器化開銷 |

> ✅ **C5 完全符合**:B 類方案中資源消耗最低,比 nanobot(Python)低一個量級。

---

**C6:公司 / 專案存續性**

Sipeed 是成立多年的深圳硬體公司(代表產品:LicheeRV-Nano、MaixPy、NanoKVM),並非個人或學術側案。PicoClaw 作為 Sipeed 的軟體生態拓展:25.8k stars(約 17 天達 20k)、178 位貢獻者、v0.2.3 共 9 個 release、每小時均有 commit 合并,社群活躍度極高。

> ✅ **C6 完全符合**:成熟硬體公司背書,社群規模快速增長。

---

**C7:商用化 / 授權風險**

MIT 授權,完全可商用,無 GPL 傳染風險。

> ✅ **C7 完全符合**

---

#### PicoClaw vs B 類同方案對比

| 面向 | PicoClaw | nanobot | OpenClaw | NanoClaw |
| --- | --- | --- | --- | --- |
| 語言 | **Go** | Python | TypeScript | TypeScript |
| 記憶體 | **<10 MB** | >100 MB | >1 GB | >1 GB |
| 啟動 | **<1 秒** | >30 秒 | >500 秒 | >500 秒 |
| Docker 強制 | **❌ 選用** | ❌ 選用 | ❌ 選用 | ✅ 必須 |
| Windows | **✅ 原生** | ⚠️ WSL2 | ⚠️ WSL2 | ❌ |
| llama.cpp 連接 | **✅ api_base(官方)** | ⚠️ custom(非官方)| ❌ | ⚠️ Anthropic 格式不相容 |
| MCP Client | **✅ 內建** | ✅ | ❌ | ❌ |
| 安全沙盒 | workspace restrict | allowlist | allowlist | OS container |
| 起源 | Sipeed 公司 / Go 從零重寫 | HKUDS / Python 重寫 | 原版(TypeScript)| qwibitai / 安全強化 |

#### 評估矩陣(C1–C7)

| 準則 | 評級 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ | 單一 Go 靜態 binary,`picoclaw onboard` 即可啟動,Docker 為可選 |
| C2 Windows 支援 | ✅ | v0.2.3 官方 Windows system tray UI;Inno Setup Windows 安裝精靈 |
| C3 llama.cpp 支援 | ✅ | OpenAI-compatible `api_base` 直連 `http://localhost:8080/v1`,官方文件化路徑 |
| C4 功能完整性 | ⚠️ | MCP + Skills + Agent + 多頻道 + Vision 齊全;缺 RAG/Embedding(依賴主架構)|
| C5 資源消耗 | ✅ | <10 MB RAM,<1 秒啟動;B 類最輕量 |
| C6 公司存續性 | ✅ | Sipeed 成熟硬體公司,178 貢獻者,25.8k stars |
| C7 商用風險 | ✅ | MIT 授權,無商用限制 |

#### SA 需求對照

| SA 需求 | PicoClaw 現況 |
| --- | --- |
| LangGraph Agent 替換 | ⚠️ 可附加(非全面取代);PicoClaw 為輕量 Agent 補充,LangGraph 仍處理核心 RAG/工作流程 |
| llama.cpp 連接 | ✅ `api_base: http://localhost:8080/v1` 直連,OpenAI-compatible format 完全相容 |
| MCP Server Port 8100 | ✅ 原生 MCP Client,可直接連接 CAD Tools MCP Server |
| Windows 內網離線 | ✅ 官方 Windows 支援,單 binary 離線可用 |
| 非 Docker 部署 | ✅ 完全無需 Docker |
| 多頻道 Bot | ✅ Telegram / Discord / WhatsApp / QQ 等 9 個頻道 |
| 排程任務 | ✅ HEARTBEAT.md + cron(可補充 LangGraph 定時流程)|

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| 技術適配性 | ⭐⭐⭐⭐⭐ (5/5) | C1 / C2 / C3 / C5 全面符合,超越同類所有 B 類方案 |
| 功能完整性 | ⭐⭐⭐⭐ (4/5) | MCP + Skills + Agent 核心齊備;RAG 需仰賴主架構 |
| 嵌入友善性 | ⭐⭐⭐⭐⭐ (5/5) | <10 MB / <1 秒啟動,OA 筆電低資源環境最優 |
| 社群存續 | ⭐⭐⭐⭐⭐ (5/5) | Sipeed 硬體公司,178 貢獻者,快速增長 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT 完全開源 |
| **綜合推薦** | ✅ **B 類首選** | 取代 nanobot 成為 MEC-AI 附加多頻道 Bot 的最優選擇 |

**建議定位**:PicoClaw 是目前評估 B 類方案中**綜合最優**的選擇。Go 語言的超低資源消耗(<10 MB RAM、<1 秒啟動),加上 Windows 原生支援(v0.2.3 system tray)、OpenAI-compatible `api_base` 官方文件化路徑(可直連 llama.cpp / LM Studio / Jan)、以及內建 MCP Client,使其在 MEC-AI 附加 Bot 場景**全面滿足 C1/C2/C3/C5/C6/C7 六項準則**。建議作為 nanobot 的升級替代方案,在 LangGraph 主架構之外提供多頻道通訊(Telegram/Discord/WhatsApp/QQ)、排程任務(HEARTBEAT.md)、以及 CAD Tools MCP Server Port 8100 的輕量 Bot 補充層。

---

### 方案11:IronClaw(nearai/ironclaw)

#### 基本資訊

| 欄位 | 內容 |
| --- | --- |
| GitHub | https://github.com/nearai/ironclaw |
| 星數 / 授權 | 10.7k ⭐ / MIT OR Apache-2.0(雙授權選一)|
| 主要語言 | Rust 90.4%、Shell 3.2%、JavaScript 2.7%、Python 2.3% |
| 最新版本 | v0.21.0(2026-03-20,共 24 個 release)|
| 貢獻者 | 95 人 |
| 主導組織 | NEAR AI(NEAR Protocol 的 AI 研究部門)|
| 官網 | https://www.ironclaw.com/ |

#### 專案定位

IronClaw 是 **NEAR AI 組織**以 Rust 從頭重新實作的 OpenClaw 精神繼承者(非 fork)。定位為「**你真正可以信任的安全個人 AI 助理**」,核心哲學為:資料完全本地化、透明可稽核、自我擴展能力、縱深防禦。相比 nanobot(Python 輕量復刻)、PicoClaw(Go 超低資源)、NanoClaw(Docker 安全隔離),IronClaw 選擇以 **Rust + WASM 沙盒 + PostgreSQL pgvector** 組合達到生產級安全性與完整 RAG 能力。

#### 架構示意

```
Channels(REPL / HTTP Webhooks / WASM Channels / Web Gateway SSE+WS)
    ↓
Agent Loop(意圖路由:command / query / task)
    ├── Scheduler(並行 Job,優先級管理)
    │       ├── Local Workers(in-process)
    │       └── Orchestrator → Docker Sandbox(可選,per-job token 隔離)
    ├── Routines Engine(cron / event trigger / webhook 背景任務)
    └── Tool Registry
            ├── Built-in Tools(web / exec / file / vision)
            ├── MCP Protocol(外部 MCP Server 連接)
            └── WASM Tools(動態構建,WASM 沙盒執行)
    ↓
Workspace(PostgreSQL + pgvector:Hybrid Search = 全文 + 向量 RRF 融合)
Safety Layer(Prompt Injection 防禦 + 內容清洗)
    ↓
LLM Backend(可設 OpenAI-compatible api_base)
```

**WASM 工具沙盒安全流程**:
```
WASM → Allowlist Validator → Leak Scan(request) → Credential Injector → Execute → Leak Scan(response) → WASM
```

#### MEC-AI 關鍵準則逐項分析

**C1:非 Docker 原生安裝**

IronClaw 本身以 **Rust 靜態 binary** 發行,提供:
- Windows Installer(.exe)
- PowerShell 一鍵安裝腳本
- Shell 腳本(macOS / Linux / WSL)
- Homebrew(macOS/Linux)
- `cargo build`(原始碼編譯)

工具沙盒採用 **WASM**(非 Docker),Docker Composer 存在但定位為「可選的 Docker Sandbox 工作器模式」,不是架構強制要求。

**然而,PostgreSQL 15+ pgvector 是必要依賴**(非可選),`ironclaw onboard` 會寫入資料庫。SA 架構已有 PostgreSQL 16 + pgvector,可共用同一實例,但若在全新 Windows 環境須另行安裝 PostgreSQL。

> ⚠️ **C1 條件符合**:IronClaw binary 本身無 Docker 強制;WASM 沙盒替代容器隔離;但 PostgreSQL + pgvector 是強制服務依賴。SA 環境已有 PostgreSQL 16,可直接共用,額外負擔較低。

---

**C2:支援 Windows**

官方安裝文件明確列出:
- "Install via Windows Installer (Windows)"
- "Compile the source code (Cargo on Windows, Linux, macOS)"
- `wix/`(Windows 安裝精靈配置目錄)存在於 repo

> ✅ **C2 完全符合**:Windows Installer 正式提供,非 WSL2 繞接。

---

**C3:支援 llama.cpp(GGUF 本地推理)**

設定方式:

```bash
LLM_BACKEND=openai_compatible
LLM_BASE_URL=http://localhost:8080/v1
LLM_API_KEY=not-needed
LLM_MODEL=qwen2.5-vl-7b-instruct
```

llama.cpp server(`/v1/chat/completions`)與 IronClaw `openai_compatible` backend 完全相容。Ollama 也是內建選項(`LLM_BACKEND=ollama`)。

**主要疑慮**:IronClaw **預設使用 NEAR AI 作為 LLM 提供商**,`ironclaw onboard` wizard 的認證步驟透過 **browser OAuth** 連接 NEAR AI 雲端服務。在**內網離線環境**中:
- 若 bootstrap 時能手動編輯 `~/.ironclaw/.env` 跳過 NEAR AI OAuth,設定 `LLM_BACKEND=openai_compatible` + `LLM_BASE_URL=http://localhost:8080/v1` 即可完全離線運行
- 若 onboard wizard 強制 NEAR AI OAuth browser 流程,則初始化本身需要聯外網路

> ⚠️ **C3 條件符合**:OpenAI-compatible backend 技術上可直連 llama.cpp;但 NEAR AI 為預設 LLM 提供商,完全離線初始化路徑需進一步驗證。

---

**C4:功能完整性(RAG + MCP + SKILLS + AGENT)**

IronClaw 是所有 B 類方案中功能覆蓋**最完整**的:

| 子功能 | IronClaw 支援 | 說明 |
| --- | --- | --- |
| MCP Client | ✅ | 原生 MCP Protocol 整合,可連 CAD Tools Port 8100 |
| RAG / 向量搜尋 | ✅ | **PostgreSQL pgvector + Hybrid Search(全文 + 向量 RRF)** 內建 |
| Agent 邏輯 | ✅ | Agent Loop + Scheduler + 並行 Job + Routines Engine |
| 長期記憶 | ✅ | Workspace Filesystem + Identity Files |
| 排程任務 | ✅ | Cron + event trigger + webhook handler |
| 多頻道 | ✅ | REPL / HTTP / WASM Channels(Telegram、Slack)/ Web Gateway |
| Web UI + SSE | ✅ | 內建 Web Gateway(Browser UI 含 chat / memory / jobs / logs)|
| 安全沙盒 | ✅ | WASM sandbox + credential protection + prompt injection defense |
| Skills 系統 | ✅ | `skills/` 目錄結構 + Plugin Architecture |
| Vision | ⚠️ | WASM channel attachments with LLM pipeline 整合(v0.19+ 加入)|
| 動態工具構建 | ✅ | 「描述需求,IronClaw 動態生成 WASM tool」|

> ✅ **C4 完全符合**:B 類中唯一**內建 pgvector RAG** 的方案,功能集接近完整 SA 架構需求。

---

**C5:低資源消耗**

| 指標 | IronClaw | 說明 |
| --- | --- | --- |
| 語言 | Rust | 原生效能,無 GC 停頓,記憶體效率接近 C |
| Binary 本身 | 輕量 | 相比 Node.js / Python 低開銷 |
| PostgreSQL | 需常駐 | SA 架構已有 PostgreSQL 16,可共用 |
| WASM 沙盒 | 輕量 | 相比 Docker 容器隔離開銷低得多 |
| OA 筆電適用性 | ⚠️ | PostgreSQL + pgvector 常駐是主要記憶體消耗來源 |

> ⚠️ **C5 條件符合**:Rust binary 自身高效;PostgreSQL 服務需常駐,但 SA 環境已有,不構成額外負擔。

---

**C6:公司 / 專案存續性**

NEAR AI 是 NEAR Protocol(知名區塊鏈公共基礎設施)的 AI 研究部門,具備穩定的組織背景與資金支持(非個人副業)。10.7k stars、95 貢獻者、v0.21.0 共 24 個 release、每小時均有 commit,開發活躍度高。

> ✅ **C6 完全符合**

---

**C7:商用化 / 授權風險**

MIT OR Apache-2.0 雙授權,選擇 Apache-2.0 可維持與商用場景的最佳相容性(專利免責條款)。

> ✅ **C7 完全符合**

---

#### IronClaw vs B 類其他方案對比

| 面向 | IronClaw | PicoClaw | nanobot | OpenClaw | NanoClaw |
| --- | --- | --- | --- | --- | --- |
| 語言 | **Rust** | Go | Python | TypeScript | TypeScript |
| 安全沙盒 | **WASM**(輕量)| workspace restrict | allowlist | allowlist | OS container(Docker 強制)|
| RAG/向量 | ✅ **pgvector 內建** | ❌ | ❌ | ❌ | ❌ |
| PostgreSQL | **✅ 必要(含 pgvector)** | ❌ | ❌ | SQLite | SQLite |
| MCP Client | ✅ | ✅ | ✅ | ❌ | ❌ |
| Windows | ✅ Installer | ✅ system tray | ⚠️ WSL2 | ⚠️ WSL2 | ❌ |
| Docker 強制 | ❌(WASM 替代)| ❌ | ❌ | ❌ | ✅ |
| llama.cpp 連接 | ⚠️ openai_compatible(NEAR AI OAuth 疑慮)| ✅ api_base(官方)| ⚠️ custom(非官方)| ❌ | ⚠️ Anthropic 格式 |
| 資源消耗 | ⚠️ Rust 輕 + PG 常駐 | ✅ <10 MB Go | ⚠️ >100 MB Python | ⚠️ >1 GB Node | ⚠️ Docker + Node |
| 組織 | NEAR AI | Sipeed 硬體公司 | HKUDS 學術 | OpenClaw 商業 | qwibitai |

**關鍵差異化**:IronClaw 是 B 類中**唯一內建 pgvector RAG** 且**生產級 WASM 安全沙盒**的方案,功能集最接近 SA 核心架構需求(pgvector 已在 SA 設計中)。但 NEAR AI OAuth 初始化依賴是離線部署的主要不確定因素。

#### 評估矩陣(C1–C7)

| 準則 | 評級 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ⚠️ | WASM 沙盒替代 Docker;binary 無 Docker 強制;但 PostgreSQL 15+ pgvector 為必要服務(SA 環境已有可共用)|
| C2 Windows 支援 | ✅ | Windows Installer + Cargo 編譯均正式支援;`wix/` 安裝精靈存在 |
| C3 llama.cpp 支援 | ⚠️ | `LLM_BACKEND=openai_compatible` + `LLM_BASE_URL` 技術上可連 llama.cpp;但 onboard wizard 預設 NEAR AI OAuth,純離線初始化路徑待驗證 |
| C4 功能完整性 | ✅ | B 類功能最完整:MCP + pgvector RAG + Hybrid Search + WASM 沙盒 + Web Gateway (SSE) + Routines/cron |
| C5 資源消耗 | ⚠️ | Rust binary 自身高效;PostgreSQL 服務需常駐(SA 環境已有,不構成額外負擔)|
| C6 公司存續性 | ✅ | NEAR AI 組織背書,95 貢獻者,v0.21.0,開發活躍 |
| C7 商用風險 | ✅ | MIT OR Apache-2.0 雙授權,商用零風險 |

#### SA 需求對照

| SA 需求 | IronClaw 現況 |
| --- | --- |
| LangGraph Agent 替換 | ⚠️ 功能上最接近完整替代(含 pgvector RAG),但 NEAR AI OAuth 依賴為主要障礙;建議先以 appendix 模式附加 |
| llama.cpp 連接 | ⚠️ `openai_compatible` backend 可連,但需確認 onboard 是否可跳過 NEAR AI OAuth |
| MCP Server Port 8100 | ✅ 原生 MCP Protocol Client,可直連 CAD Tools MCP Server |
| pgvector RAG | ✅ **內建 Hybrid Search(pgvector + 全文 RRF)**,可與 SA 的 PostgreSQL 16 共用實例 |
| Windows 內網離線 | ⚠️ Windows binary 支援;但初始化是否需外網 NEAR AI OAuth 待驗證 |
| 非 Docker 部署 | ✅ WASM 沙盒替代;PostgreSQL 為唯一服務依賴 |
| Web UI + SSE 串流 | ✅ 內建 Web Gateway(SSE + WebSocket)|

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| 技術適配性 | ⭐⭐⭐⭐ (4/5) | C2/C4/C6/C7 全符合;C1/C3/C5 條件符合 |
| 功能完整性 | ⭐⭐⭐⭐⭐ (5/5) | B 類唯一含 pgvector RAG 方案,最接近 SA 整體需求 |
| 安全性 | ⭐⭐⭐⭐⭐ (5/5) | WASM 沙盒 + credential protect + prompt injection defense,B 類最高安全等級 |
| 社群存續 | ⭐⭐⭐⭐ (4/5) | NEAR AI 組織,10.7k stars,穩定但規模小於 PicoClaw/OpenClaw |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT OR Apache-2.0,無商用限制 |
| **綜合推薦** | ⚠️ **條件推薦** | NEAR AI OAuth 離線初始化路徑待驗證後,若可跳過則升為首選附加方案 |

**建議定位**:IronClaw 是 B 類中功能集**最完整**的方案,其**內建 pgvector Hybrid Search**(全文 + 向量 RRF 融合)與 SA 架構 PostgreSQL 16 + pgvector 天然契合,WASM 沙盒安全架構也優於 NanoClaw 的 Docker 強制模式。**決策關鍵點**:若能確認 `~/.ironclaw/.env` 可手動設定 `LLM_BACKEND=openai_compatible` 跳過 NEAR AI OAuth 完成離線初始化,IronClaw 應**取代 PicoClaw 成為 B 類主推方案**(因為 IronClaw 的 pgvector RAG 使其可深度整合 SA 主架構,而 PicoClaw 仍需依賴 LangGraph 提供 RAG)。建議在測試環境先驗證 NEAR AI 帳號依賴的可繞過性。

---

### 方案12:ZeroClaw(zeroclaw-labs/zeroclaw)

#### 基本資訊

| 欄位 | 內容 |
| --- | --- |
| GitHub | https://github.com/zeroclaw-labs/zeroclaw |
| 星數 / 授權 | 28.4k ⭐ / MIT OR Apache-2.0(雙授權選一)|
| 主要語言 | Rust 93.7%、TypeScript 2.7%、Python 1.4%、Shell 1.4% |
| 最新版本 | v0.5.9(3 小時前,共 130 個 release!)|
| 貢獻者 | 199 人 |
| 主導社群 | ZeroClaw Labs(Argenis De La Rosa 主導,Harvard / MIT / Sundai.Club 社群)|
| 官網 | https://zeroclawlabs.ai/ |

#### 專案定位

ZeroClaw 是 OpenClaw 的 **Rust 完全重寫版**,以「Zero overhead. Zero compromise. 100% Rust. 100% Agnostic.」為核心訴求,由 Harvard/MIT 社群成員發起。目標是:比 PicoClaw(Go <10MB)更輕(<5MB RAM)、比任何同類方案更快(<10ms 啟動),支援 20+ 通訊頻道,並擁有硬體外設整合能力(ESP32、STM32、Arduino、Raspberry Pi GPIO)。v0.5.9 共 130 個 release,是目前所有評估方案中**發版頻率最高**的專案。

**重要聲明(官方公告)**:zeroclaw.org / zeroclaw.net 係仿冒網域,唯一官方源為 `zeroclaw-labs/zeroclaw`。

#### 架構示意

```
Channels(WhatsApp / Telegram / Slack / Discord / Signal / iMessage / Matrix /
          IRC / Email / Bluesky / Nostr / Mattermost / Nextcloud Talk /
          DingTalk / Lark / QQ / Reddit / LinkedIn / Twitter / MQTT /
          WeChat Work / WebSocket / ClawdTalk …共 22+ 頻道)
    ↓
Gateway(HTTP/WS/SSE 控制平面:sessions / presence / config / cron / webhooks)
    ↓
Agent Loop(工具分派 + Prompt 構建 + 訊息分類 + 記憶載入)
    ├── Skills(workspace / global / community SKILL.md / SKILL.toml)
    ├── MCP(Model Context Protocol tool wrapper + deferred tool sets)
    ├── Tools(shell / file / browser / git / web / Jira / Notion / Google Workspace / 70+)
    ├── Cron + SOPs(event-driven workflow:MQTT / webhook / cron / 外設觸發)
    ├── Hands(Multi-agent Swarm:自主代理群集)
    └── Hardware Peripherals(ESP32 / STM32 / Arduino / RPi GPIO via Peripheral trait)
    ↓
Memory(IDENTITY.md / USER.md / MEMORY.md / AGENTS.md / SOUL.md;檔案型,非向量)
    ↓
LLM Backend(20+ providers;openai_compatible 自訂端點 → llama.cpp / LM Studio / Jan)
    ↓
Web Dashboard(React 19 + Vite 6 + Tailwind CSS 4;chat / memory / config / cron / tools / logs)
```

**資源對比(官方 benchmark,0.8GHz 單核)**:

| 框架 | 語言 | RAM | 啟動時間 | Binary 大小 | 最低硬體成本 |
| --- | --- | --- | --- | --- | --- |
| OpenClaw | TypeScript | >1 GB | >500 秒 | ~28MB | $599 Mac Mini |
| nanobot | Python | >100 MB | >30 秒 | N/A | ~$50 Linux SBC |
| PicoClaw | Go | <10 MB | <1 秒 | ~8 MB | $10 |
| **ZeroClaw** | **Rust** | **<5 MB** | **<10 ms** | **~8.8 MB** | **$10** |

#### MEC-AI 關鍵準則逐項分析

**C1:非 Docker 原生安裝**

ZeroClaw 的安裝路徑:

```bash
# 一鍵 bootstrap(無 Docker 強制)
git clone https://github.com/zeroclaw-labs/zeroclaw.git
cd zeroclaw
./install.sh

# 或 Homebrew
brew install zeroclaw

# 或原始碼
cargo build --release --locked && cargo install --path . --force --locked
```

Docker 為**選用的 runtime 模式**:設定 `runtime.kind = "docker"` 後才啟用容器執行,預設為 `native`(直接 process 執行)。Binary 本身無 Docker 依賴。

記憶體儲存為**純檔案型**(MEMORY.md / JSONL),無 PostgreSQL / pgvector 強制依賴(與 IronClaw 最大差異)。

> ✅ **C1 完全符合**:No Docker 強制;無 PostgreSQL 強制;單一 Rust 靜態 binary。

---

**C2:支援 Windows**

| 安裝方式 | Windows 支援 |
| --- | --- |
| GitHub Releases 預編譯 binary | ✅ Windows x86_64 |
| Scoop(Windows 原生套件管理)| ✅ CI/CD 自動發布 |
| Homebrew | macOS/Linux 僅 |
| `./install.sh` onboard 精靈 | ⚠️ 官方說明:**"works on macOS, Linux, and Windows (via WSL2)"** |

Windows x86_64 預編譯 binary 存在,Scoop 套件管理(Windows 原生)列入 CI/CD 發布目標,但 README 明確指出 onboard 精靈**官方推薦路徑為 WSL2**。

> ⚠️ **C2 條件符合**:Windows binary + Scoop 均存在,但 onboard 精靈文件明確說明 "Windows (via WSL2)";可直接使用預編譯 binary + 手動設定 config.toml 繞過 onboard 精靈,但需額外操作。狀況與 nanobot 類似(WSL2 建議,非強制)。

---

**C3:支援 llama.cpp(GGUF 本地推理)**

ZeroClaw 明確強調「**No lock-in: OpenAI-compatible provider support + pluggable custom endpoints**」,支援 20+ LLM backend,可設定自訂端點:

```toml
# ~/.zeroclaw/config.toml
default_provider = "openai_compatible"
# 或環境變數方式,與 llama.cpp server 完全相容
```

llama.cpp server 提供 `/v1/chat/completions`(OpenAI-compatible API),與 ZeroClaw 自訂端點機制完全相容。在 SA 環境中:
- `default_provider` 設為 openai_compatible
- `api_base_url` 指向 `http://localhost:8080/v1`
- `api_key` 設為任意值(llama.cpp 不驗證)

> ✅ **C3 完全符合**:OpenAI-compatible 自訂端點支援,可直連 llama.cpp / LM Studio / Jan,且為文件化功能而非繞接路徑。

---

**C4:功能完整性(RAG + MCP + SKILLS + AGENT)**

| 子功能 | ZeroClaw 支援 | 說明 |
| --- | --- | --- |
| MCP Client | ✅ | "MCP: Model Context Protocol tool wrapper + deferred tool sets",可連 CAD Tools Port 8100 |
| Skills 系統 | ✅ | workspace / global / community 三層;`skills audit` 安全審計 |
| Agent 邏輯 | ✅ | 完整 orchestration loop + intent routing + 工具分派 |
| 長期記憶 | ✅ | MEMORY.md / JSONL 檔案型;recall / store / forget / knowledge 工具 |
| 排程任務 | ✅ | Cron + webhook + MQTT + 外設觸發(SOPs)|
| 多頻道 | ✅ | 22+ 頻道,業界最廣覆蓋 |
| Web Dashboard | ✅ | React 19 + Vite 6,含 chat / memory / config / cron / tools / logs / cost |
| Multi-agent(Hands)| ✅ | 自主代理群集,定時執行 |
| Hardware 外設 | ✅ | ESP32 / STM32 / Arduino / RPi GPIO(超越其他所有 B 類方案)|
| RAG / 向量搜尋 | ❌ | 記憶體為檔案型(非 pgvector);無 Embedding API / Hybrid Search |
| pgvector 整合 | ❌ | 無 PostgreSQL 依賴,記憶層設計為輕量檔案型 |
| 自訂 SSE 三段格式 | ❌ | SA 規定的 `token/sources/done` 由 LangGraph 主架構提供 |

> ⚠️ **C4 條件符合**:MCP + Skills + Agent + 記憶 + 22+ 頻道 + Web Dashboard + Hands + Hardware 外設均齊備,功能廣度**超越 PicoClaw**;但 RAG/Embedding 缺失,仍需依賴主架構 pgvector。

---

**C5:低資源消耗**

| 指標 | ZeroClaw | 說明 |
| --- | --- | --- |
| 記憶體 | **<5 MB** | 超越 PicoClaw(<10 MB)與 IronClaw(Rust + PG)|
| 啟動時間 | **<10 ms** | 比 PicoClaw(<1秒)快兩個量級 |
| Binary 大小 | ~8.8 MB | 與 PicoClaw(~8 MB)相當 |
| 資料庫依賴 | ❌ 無 | 純檔案型記憶,無 PostgreSQL 服務常駐 |
| Docker | 選用 | 預設 native 執行,不消耗容器開銷 |

> ✅ **C5 完全符合**:B 類方案中**資源消耗最低**,<5MB RAM + <10ms 啟動,超越 PicoClaw。

---

**C6:公司 / 專案存續性**

ZeroClaw Labs 由 Harvard/MIT/Sundai.Club 社群成員主導,28.4k stars、199 位貢獻者,**130 個 release**(遠超所有評估方案),是目前**發版頻率最高**的 B 類方案。雖非傳統硬體公司背書(與 Sipeed/PicoClaw 不同),但社群活躍度與貢獻規模在所有評估方案中最高。存在仿冒網域問題,但官方 repo 聲明清楚。

> ✅ **C6 完全符合**

---

**C7:商用化 / 授權風險**

MIT OR Apache-2.0 雙授權,無商用限制。TRADEMARK.md 記錄商標規範,貢獻者自動在兩個授權下授予權利。

> ✅ **C7 完全符合**

---

#### ZeroClaw vs B 類其他方案對比

| 面向 | ZeroClaw | PicoClaw | IronClaw | nanobot |
| --- | --- | --- | --- | --- |
| 語言 | **Rust** | Go | Rust | Python |
| RAM | **<5 MB** | <10 MB | Rust輕+PG | >100 MB |
| 啟動 | **<10 ms** | <1 秒 | 快 | >30 秒 |
| Docker 強制 | ❌ 選用 | ❌ 選用 | ❌ 選用 | ❌ |
| Windows onboard | ⚠️ WSL2 建議 | ✅ 原生 system tray | ✅ Installer | ⚠️ WSL2 |
| Windows binary | ✅ x86_64 + Scoop | ✅ | ✅ | ⚠️ |
| llama.cpp | ✅ 自訂端點(官方)| ✅ api_base(官方)| ⚠️ NEAR AI OAuth 依賴 | ⚠️ custom(非官方)|
| MCP Client | ✅ | ✅ | ✅ | ✅ |
| RAG/向量 | ❌ 檔案型記憶 | ❌ | ✅ pgvector | ❌ |
| 頻道數量 | **22+(最多)** | 9 | Telegram/Slack等 | 多頻道 |
| Hardware 外設 | ✅ ESP32/RPi | ❌ | ❌ | ❌ |
| 發版頻率 | **130 releases(最高)** | 9 | 24 | ~10 |

**關鍵差異化**:ZeroClaw 在資源消耗(最低)、頻道覆蓋(最廣)、發版活躍度(最高)、Hardware 外設支援(唯一)上全面領先 PicoClaw,但 Windows onboard 精靈需 WSL2(PicoClaw 為原生 system tray)。

#### 評估矩陣(C1–C7)

| 準則 | 評級 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ | 單一 Rust binary;Docker 選用;無 PostgreSQL 強制;`native` runtime 為預設 |
| C2 Windows 支援 | ⚠️ | Windows x86_64 預編譯 binary + Scoop 套件管理均支援;但 onboard 精靈官方說明為 "Windows (via WSL2)" |
| C3 llama.cpp 支援 | ✅ | OpenAI-compatible 自訂端點(官方文件化),直連 `http://localhost:8080/v1` |
| C4 功能完整性 | ⚠️ | MCP + Skills + 22+ 頻道 + Web Dashboard + Hands + Hardware 外設齊備;缺 pgvector RAG(檔案型記憶)|
| C5 資源消耗 | ✅ | <5 MB RAM / <10 ms 啟動;B 類方案中**資源最低** |
| C6 公司存續性 | ✅ | 199 貢獻者,28.4k stars,130 releases,Harvard/MIT 社群主導,活躍度最高 |
| C7 商用風險 | ✅ | MIT OR Apache-2.0,無商用限制 |

#### SA 需求對照

| SA 需求 | ZeroClaw 現況 |
| --- | --- |
| LangGraph Agent 替換 | ⚠️ 附加模式最佳;超廣頻道覆蓋 + Hardware 外設為獨特優勢;RAG 仍需 LangGraph 主架構 |
| llama.cpp 連接 | ✅ OpenAI-compatible 自訂端點直連,官方支援路徑 |
| MCP Server Port 8100 | ✅ 原生 MCP Client,可直接連接 CAD Tools MCP Server |
| Windows 內網離線 | ⚠️ Windows binary 可用;onboard 精靈建議 WSL2;可手動設定 config.toml 繞過 |
| 非 Docker 部署 | ✅ `runtime.kind = "native"` 為預設,完全無 Docker |
| 多頻道 Bot | ✅ 22+ 頻道,B 類最廣覆蓋 |
| 排程任務 | ✅ Cron + SOPs + webhook + MQTT |

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| 技術適配性 | ⭐⭐⭐⭐ (4/5) | C1/C3/C5/C6/C7 全符合;C2 onboard 需 WSL2;C4 缺 RAG |
| 功能廣度 | ⭐⭐⭐⭐⭐ (5/5) | 22+ 頻道 + Hardware 外設 + Hands 多 Agent,B 類最廣 |
| 資源效率 | ⭐⭐⭐⭐⭐ (5/5) | <5 MB RAM / <10 ms 啟動,B 類最低 |
| 社群活躍度 | ⭐⭐⭐⭐⭐ (5/5) | 199 貢獻者,130 releases,最高發版頻率 |
| 商用成本風險 | ⭐⭐⭐⭐⭐ (5/5) | MIT OR Apache-2.0,無商用限制 |
| **綜合推薦** | ⚠️ **條件推薦(B 類次選)** | Windows onboard 需 WSL2 是主要限制;資源效率與功能廣度超越 PicoClaw |

**建議定位**:ZeroClaw 在資源效率(<5 MB/<10 ms,超越 PicoClaw)、頻道覆蓋(22+,B 類最廣)、發版活躍度(130 releases)、Hardware 外設支援(唯一)等維度全面領先所有 B 類方案。**主要限制**:onboard 精靈官方推薦路徑為 "Windows (via WSL2)",在 SA 的純 Windows 內網環境中需以預編譯 binary 搭配手動 config.toml 設定取代 onboard 精靈。若 Windows 初始化問題可接受,ZeroClaw 在附加 Bot 場景的**功能廣度與資源效率均優於 PicoClaw**,可考慮作為 PicoClaw 的替代方案;若需要最零摩擦的 Windows 原生體驗,PicoClaw(system tray)仍是首選。

---

### 方案13:OpenWork(different-ai/openwork)

#### 基本資訊

| 欄位 | 內容 |
| --- | --- |
| GitHub | https://github.com/different-ai/openwork |
| 星數 / 授權 | 12.3k ⭐ / MIT |
| 主要語言 | TypeScript 77.2%、JavaScript 10.3%、Rust 7.0%(Tauri)、CSS 4.0% |
| 最新版本 | v0.11.182(2 小時前,共 **1,010 個 release**!)|
| 貢獻者 | 46 人 |
| 主導組織 | different-ai(Benjamin Shafii 主導)|
| 官網 | https://openworklabs.com/ |

#### 專案定位

OpenWork 是 **Claude Cowork / Claude Codex(桌面版)的開源替代品**,本質是 [OpenCode](https://opencode.ai)(SST AI coding agent CLI)的 **Tauri 桌面 GUI 包裝層**。核心設計圍繞「將 agentic 程式碼工作流程打包為可重複、可產品化的流程」。它不是通用 Agent 框架,也不是多頻道 Bot,而是一款**桌面 AI 程式碼助理應用**。

**⚠️ 重要辨識**:OpenWork 的定位非常明確——替代 Claude Cowork(Anthropic 的桌面 AI 程式設計工具)。其整個設計圍繞:sessions / SSE 串流 / 執行計畫(todo timeline)/ permissions 審核 / 技能管理,這些均為**程式碼編輯工作流程**的核心元素,而非企業 AI 後端或文件查詢助理。

#### 架構示意

```
桌面 App(Tauri = Rust 殼 + TypeScript/React UI)
    ↓
OpenWork Server(openwork-orchestrator:npm install -g openwork-orchestrator)
    ├── Host mode:本地啟動 OpenCode + openwork-server(+ 可選 opencode-router)
    └── Client mode:連接遠端 OpenCode server URL
    ↓
OpenCode CLI(opencode.ai:SST 的 AI coding agent,需獨立安裝)
    ├── Sessions(建立 / 選擇 session,發送 prompt)
    ├── SSE streaming(/event 訂閱,即時更新)
    ├── Execution plan(OpenCode todos 呈現為時間線)
    ├── Permissions(權限請求:allow once / always / deny)
    ├── Templates(儲存 / 重執行常見工作流程)
    └── Skills(.opencode/skills;opkg install 安裝)
```

**安裝前置需求**:
- Node.js + pnpm(pnpm@10.27.0)
- Bun 1.3.9+
- Rust toolchain(for Tauri)+ Cargo
- OpenCode CLI(需 PATH 可存取:`opencode`)
- macOS:Xcode Command Line Tools
- Linux:WebKitGTK 4.1 dev packages

#### MEC-AI 關鍵準則逐項分析

**C1:非 Docker 原生安裝**

無 Docker 強制,但安裝前置需求繁複:`Node.js + pnpm + Bun + Rust toolchain + Cargo + OpenCode CLI` 均須先到位。官方提供下載點([openworklabs.com/download](https://openworklabs.com/download))與 GitHub Releases 預編譯 binary,可跳過原始碼編譯。AUR 套件(Arch)及 CLI orchestrator(`npm install -g openwork-orchestrator`)等多條安裝路徑並存。

> ⚠️ **C1 條件符合**:無 Docker 強制;但 OpenCode CLI 是強制前置依賴,且需 Node.js + pnpm 運行環境;預編譯桌面安裝包可降低複雜度。

---

**C2:支援 Windows**

Tauri 框架支援 Windows,GitHub Releases 內含 Windows 安裝包,且近期有 commit "dx: add windows arm64 pnpm dev support",確認 Windows ARM64 的開發支援。

> ✅ **C2 完全符合**:Tauri 跨平台(Windows / macOS / Linux),有 Windows 預編譯安裝包。

---

**C3:支援 llama.cpp(GGUF 本地推理)**

OpenWork 是 OpenCode 的 UI 層,LLM provider 支援完全取決於底層 OpenCode。OpenCode(SST 版本)主要設計為 Anthropic / OpenAI 的前端,是否支援 OpenAI-compatible local endpoint(如 llama.cpp)需查閱 OpenCode 文件。README 中未見明確的自訂端點設定,整體傾向**雲端 LLM 為主**。

> ⚠️ **C3 不確定**:未在 README 中找到明確的 OpenAI-compatible 自訂端點設定;LLM provider 取決於底層 OpenCode,本地 llama.cpp 連接路徑待驗證。

---

**C4:功能完整性(RAG + MCP + SKILLS + AGENT)**

| 子功能 | OpenWork 支援 | 說明 |
| --- | --- | --- |
| MCP Client | ⚠️ | 繼承 OpenCode 的 MCP 能力(若 OpenCode 支援);非 OpenWork 原生設計 |
| Skills 系統 | ✅ | `.opencode/skills` + `opkg install`;Skills Manager UI |
| Agent 邏輯 | ⚠️ | 全部依賴 OpenCode 底層;OpenWork 僅是 GUI 層 |
| RAG / 向量搜尋 | ❌ | 無任何 RAG / Embedding / pgvector 能力 |
| 多頻道 | ❌ | 桌面 GUI 應用,無 Telegram / Discord / WhatsApp 等頻道 |
| 排程任務 | ❌ | 無 cron / heartbeat |
| Web Dashboard SSE | ✅ | SSE `/event` 串流為核心功能 |
| Permissions 審核 | ✅ | allow once / always / deny 工具執行授權機制 |
| 程式碼 diff / 執行計畫 | ✅ | 程式碼場景核心功能 |
| **MEC-AI 適用性** | ❌ | **設計為程式碼助理,非文件查詢/CAD 工具助理** |

> ❌ **C4 不符合**:OpenWork 的功能集專為**程式碼編輯工作流程**設計,無 RAG/多頻道/排程,不適合 MEC-AI 的文件查詢 + CAD 工具整合場景。

---

**C5:低資源消耗**

| 指標 | OpenWork | 說明 |
| --- | --- | --- |
| 框架 | Tauri(Rust + WebKit)| 比 Electron 輕,使用系統 WebKit |
| Node.js 常駐 | ⚠️ | openwork-orchestrator 需 Node.js 運行環境 |
| OpenCode 進程 | 需常駐 | Host mode 需啟動並管理 OpenCode 進程 |
| 整體消耗 | 中等 | 明顯輕於 Electron,但重於純 Rust binary |

> ⚠️ **C5 條件符合**:Tauri 架構比 Electron 輕量,但需 Node.js + OpenCode 進程;對 OA 筆電屬中等負擔。

---

**C6:公司 / 專案存續性**

different-ai 是 Benjamin Shafii 主導的小型 AI 工具公司,12.3k stars,**1,010 個 release**(發版頻率極高,平均每天多次),46 位貢獻者。雖然規模較小,但持續活躍。

> ✅ **C6 符合**:活躍開發中,1,010 releases 顯示持續高頻迭代。

---

**C7:商用化 / 授權風險**

MIT 授權。

> ✅ **C7 完全符合**

---

#### MEC-AI 定位不符的根本原因分析

| SA 需求 | OpenWork 現況 | 適配性 |
| --- | --- | --- |
| 文件查詢 + pgvector RAG | ❌ 無任何向量/RAG 能力 | 根本不適用 |
| CAD Tools MCP Server | ⚠️ 繼承 OpenCode 的 MCP(若有)| 非設計目標 |
| 多用戶 / 多頻道通訊 | ❌ 單一桌面 GUI | 根本不適用 |
| llama.cpp 本地推理 | ⚠️ 取決於 OpenCode 支援 | 不確定 |
| Windows 內網離線 | ✅ | 符合 |
| 企業 AI 後端 API | ❌ 無後端 API 設計 | 根本不適用 |

**核心問題**:OpenWork 的設計目標是「程式設計師的桌面 AI 助理」(取代 Claude Cowork),而 MEC-AI 的目標是「機械工程師的文件查詢 + CAD 工具 AI 助理後端」。兩者的功能集、設計哲學、技術架構均有根本性差異。

#### 評估矩陣(C1–C7)

| 準則 | 評級 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ⚠️ | 無 Docker 強制;但需 Node.js + pnpm + Bun + Rust + OpenCode CLI 多重前置依賴 |
| C2 Windows 支援 | ✅ | Tauri 跨平台,Windows 預編譯安裝包存在 |
| C3 llama.cpp 支援 | ⚠️ | 取決於底層 OpenCode 的 LLM provider 支援;README 中未見明確自訂端點設定 |
| C4 功能完整性 | ❌ | 程式碼助理定位:無 RAG / 多頻道 / 排程;與 MEC-AI 場景根本不符 |
| C5 資源消耗 | ⚠️ | Tauri 比 Electron 輕;但需 Node.js + OpenCode 進程常駐 |
| C6 公司存續性 | ✅ | 12.3k stars,1,010 releases,活躍迭代 |
| C7 商用風險 | ✅ | MIT 授權 |

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐ (1/5) | 設計目標與 MEC-AI 根本不符 |
| 功能完整性(通用)| ⭐⭐ (2/5) | 程式碼場景功能完整;MEC-AI 所需功能幾乎全缺 |
| 安裝便利性 | ⭐⭐⭐ (3/5) | 預編譯安裝包可用;但多重前置依賴複雜 |
| 社群存續 | ⭐⭐⭐⭐ (4/5) | 高頻迭代,1,010 releases |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | MIT |
| **綜合推薦** | ❌ **不建議** | 設計定位根本不符 MEC-AI 需求 |

**建議定位**:OpenWork 是一款優秀的**桌面 AI 程式碼助理**(Claude Cowork 開源替代品),若 MEC-AI 未來需要為工程師提供「程式碼輔助編寫」功能,OpenWork 值得作為**程式開發輔助工具**單獨評估。但就 MEC-AI 當前核心需求(文件 RAG 查詢 + CAD MCP 工具整合 + llama.cpp 本地推理 + 多用戶後端 API)而言,OpenWork 的設計目標與 MEC-AI **根本不同**,不應列入 MEC-AI 架構選型考量。

---

### 方案 14:Cline

- **GitHub**:https://github.com/cline/cline
- **Stars**:59.2k ⭐(2026-03,已評估方案中**最高**)
- **分類**:A — 全棧 Chat 平台(IDE 嵌入式 AI Coding 助理子類型)
- **授權**:Apache 2.0(Cline Bot Inc. © 2026)✅
- **語言**:TypeScript 98.0%、JavaScript 1.2%
- **版本**:v3.75.0(244 releases,最近 2 天前更新)
- **貢獻者**:305 人(已評估方案中**最多**)
- **組織**:Cline Bot Inc.(商業公司,提供企業版 Enterprise 方案)

#### 專案定性

Cline 是一款**整合於 VS Code IDE 的自主 AI 程式碼助理擴充套件**(Extension)。以 `saoudrizwan.claude-dev` 發佈於 VS Code Marketplace,名稱取自「CLI aNd Editor」縮寫。其設計目標是讓開發者在 IDE 內進行**完整自主的程式開發任務**(建立/修改檔案、執行 Terminal 命令、操作瀏覽器、呼叫 MCP 工具),並在每個關鍵操作前請求使用者確認(human-in-the-loop)。

**與 OpenWork(方案13)的相似與差異**:
- **相似**:同樣定位為「AI 程式碼助理」,服務對象皆為軟體開發者
- **差異**:Cline 以 VS Code Extension 形式存在(非獨立桌面 App),更深度整合 IDE 環境;OpenWork 是 Tauri 獨立桌面應用包裝 OpenCode CLI

#### 架構概覽

```
VS Code IDE(側欄 Panel)
    ↓
Cline Extension(TypeScript)
    ├─ LLM API(OpenAI / Anthropic / OpenRouter / OpenAI-compatible)
    │      └─ 支援 LM Studio / Ollama / llama.cpp(OpenAI-compatible endpoint)
    ├─ VS Code API(檔案讀寫、終端機、Linter 整合)
    ├─ Headless Browser(Computer Use,Claude Sonnet 特定功能)
    ├─ MCP Client(連接任意 MCP Server,亦可自動建立新 MCP Server)
    └─ .clinerules(Project-level 規則自訂;類似 SKILLS 概念)
```

#### 功能分析

| 功能面向 | Cline 能力 | 備註 |
| --- | --- | --- |
| **Agent** | ✅ 完整多步驟自主 Agent 循環(分析 → 工具呼叫 → 觀察 → 繼續) | 核心功能;具備任務 Checkpoint / Compare / Restore |
| **MCP** | ✅ 原生 MCP Client;可連接社群 MCP Server,亦可自動建立自訂 MCP Server | 官方文件强調 MCP 擴充能力 |
| **llama.cpp / 本地 LLM** | ✅ 支援「任意 OpenAI-compatible API」,官方明確列舉 LM Studio / Ollama | 可指向 llama.cpp openai server(`--port 8080`) |
| **RAG** | ❌ 無內建文件向量化 / 語意搜尋功能 | 僅 `@url` / `@file` / `@folder` 手動上下文;非自動 RAG |
| **多頻道** | ❌ 僅 VS Code 側欄 Panel | 無 Web / LINE / Teams / API 多頻道支援 |
| **排程任務** | ❌ 無排程能力 | 完全手動觸發 |
| **SKILLS** | ⚠️ `.clinerules` 目錄可自訂規則(Project-level Instructions)| 概念接近但非正式 SKILLS 機制 |
| **多模態** | ⚠️ 支援圖片輸入(mockup 轉 UI);Browser Computer Use(Claude 限定) | 視覺能力依賴 Claude Sonnet;本地 llama.cpp 多模態視 LLM 模型而定 |
| **API 成本追蹤** | ✅ 全任務 token / API 費用即時追蹤 | 對 llama.cpp 本地推理無費用 |
| **企業版** | ✅ SSO(SAML/OIDC)、審計追蹤、VPC / Private Link、On-prem | 企業版付費;開源核心 Apache 2.0 |

#### 部署評估

| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ **符合** | VS Code Extension,從 VS Code Marketplace 安裝即可,無任何 Docker 依賴 |
| C2 Windows | ✅ **符合** | VS Code 在 Windows 上原生運行;GitHub CI 明確包含 Windows 測試(Windows CI runners) |
| C3 llama.cpp | ✅ **符合** | 官方明確支援「any OpenAI compatible API」,可直接指向 llama.cpp `--port 8080 --api-key dummy` 端點 |
| C4 功能完整 | ⚠️ **部分符合** | Agent ✅、MCP ✅;但 RAG ❌、多頻道 ❌、排程 ❌;功能完整性僅覆蓋 MEC-AI 子集 |
| C5 低資源 | ⚠️ **條件符合** | Extension 本身輕量(TypeScript,無 Docker / 無獨立 Server);但强依賴 VS Code IDE 常駐,無法作為無視窗 Server 部署 |
| C6 存續性 | ✅ **優異** | 59.2k stars(已評估最高)、305 貢獻者(已評估最多)、244 releases、Cline Bot Inc. 商業化路線清晰、企業版商業支撐 |
| C7 商用風險 | ✅ **低風險** | Apache 2.0 授權(Cline Bot Inc. © 2026);開源核心,企業功能另售,主功能無付費鎖定 |

#### MEC-AI 適用性分析

| 取代/強化場景 | 可行性 | 說明 |
| --- | --- | --- |
| 取代 MEC-AI 整體後端(FastAPI + LangGraph) | ❌ 不可行 | Cline 是 VS Code 插件,無法作為無頭(headless)多用戶後端 API 服務部署 |
| 取代 Agent 框架(LangGraph) | ❌ 不適合 | Cline Agent 循環耦合於 VS Code 環境,無法嵌入 Python FastAPI 後端進行程式化呼叫 |
| 提供 RAG 查詢(文件問答) | ❌ 無此功能 | 缺乏文件向量化與語意搜尋能力 |
| 整合 CAD MCP Server | ✅ 技術可行 | Cline 可連接自訂 MCP Server(Port 8100 CAD Tools);但使用情境為工程師在 VS Code 內手動操作,非 MEC-AI 的 API 後端自動化 |
| 作為 MEC-AI 開發團隊工具 | ✅ **高度推薦** | 可協助工程師以 AI 輔助撰寫 MEC-AI 系統程式碼(FastAPI、LangGraph、前端 React 等),定位為**開發輔助工具**而非產品本體 |

#### 關鍵限制(MEC-AI 場景)

1. **VS Code 強依賴**:Cline 必須在 VS Code IDE 環境內運行,無法作為獨立後端服務部署於 OA 伺服器
2. **無 RAG 能力**:MEC-AI 核心需求之一(技術文件語意查詢)Cline 完全無法滿足
3. **單一頻道(IDE 側欄)**:MEC-AI 需要 Web 前端 + LINE Bot + Teams 等多頻道整合;Cline 僅提供 VS Code 側欄介面
4. **無法多用戶**:Cline 為單人開發者工具;MEC-AI 服務對象為機械工程部門多位使用者
5. **Claude 最佳化設計**:Computer Use(Browser)能力強依賴 Claude Sonnet,以 llama.cpp 本地模型替換後瀏覽器自動化功能受限

#### 獨特優勢(開源生態觀點)

儘管 Cline 不適合作為 MEC-AI 產品架構,其在**開源 AI 程式碼助理**領域有以下突出優勢:
- **59.2k stars**:GitHub 上最受歡迎的開源 AI Coding 助理之一(超越 OpenWork 的 12.3k)
- **MCP 生態先驅**:最早大力推廣 MCP(Model Context Protocol)的開源工具之一,社群 MCP Server 大量以 Cline 為測試基準
- **本地 LLM 友善**:明確支援 LM Studio / Ollama / 任意 OpenAI-compatible API,離線部署路徑清晰
- **Apache 2.0**:授權最乾淨,商業使用無風險

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐ (1/5) | VS Code 插件形式,根本不符合企業後端部署需求 |
| 功能完整性(通用)| ⭐⭐⭐⭐ (4/5) | Agent + MCP + 本地 LLM 支援完整;欠缺 RAG 與多頻道 |
| 安裝便利性 | ⭐⭐⭐⭐⭐ (5/5) | VS Code Marketplace 一鍵安裝,無任何額外依賴 |
| 社群存續 | ⭐⭐⭐⭐⭐ (5/5) | 59.2k stars,305 貢獻者,商業公司背書 |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | Apache 2.0,授權風險最低 |
| **綜合推薦** | ❌ **MEC-AI 架構選型不建議** | 設計定位根本不符(IDE 插件 vs 企業後端)|

**建議定位**:Cline 是目前開源社群最頂尖的 **VS Code AI Coding 助理**,以 59.2k stars 與 Apache 2.0 授權成為開發者生產力工具的首選。就 MEC-AI **產品架構**而言,Cline 無法取代或強化任何 MEC-AI 核心層(Agent 後端 / RAG / 多頻道 / 多用戶 API)。但就 **MEC-AI 開發團隊的工具選型**而言,強烈建議將 Cline 作為工程師日常開發輔助工具,用於撰寫 FastAPI、LangGraph Agent、React 前端等 MEC-AI 系統程式碼,以提升開發效率。**MEC-AI 架構選型結論:不應列入候選方案,但推薦作為開發團隊工具**。

---

### 方案 15:Aider

- **GitHub**:https://github.com/Aider-AI/aider
- **Stars**:42.3k ⭐(2026-03)
- **分類**:A — 全棧 Chat 平台(終端機 AI Pair Programming 助理子類型)
- **授權**:Apache 2.0(Added 3 years ago)✅
- **語言**:Python 80.0%、CSS 4.1%、Shell 4.0%
- **版本**:v0.86.0(93 releases,最近更新 last week)
- **貢獻者**:169 人
- **組織**:Aider-AI(paul-gauthier 為主要作者,個人主導專案)

#### 專案定性

Aider 是一款**在終端機(Terminal)中運行的 AI Pair Programming 工具**,定位為「AI 結對程式設計師(AI pair programming in your terminal)」。與 Cline(VS Code Extension)和 OpenWork(Tauri 桌面 App)不同,Aider 是**純 Python CLI 工具**,透過 `pip install` 安裝,在任何有 Python 的環境下均可運行(包含 Windows PowerShell / CMD)。

**三大同類工具對比(方案13/14/15)**:
| 工具 | 形式 | Stars | 主力語言 |
|---|---|---|---|
| OpenWork(方案13)| Tauri 桌面 App | 12.3k | TypeScript + Rust |
| Cline(方案14)| VS Code Extension | 59.2k | TypeScript |
| Aider(方案15)| Terminal CLI | 42.3k | Python |

#### 架構概覽

```
Terminal(Windows PowerShell / CMD / bash)
    ↓
aider CLI(Python)
    ├─ LLM API(OpenAI / Anthropic / DeepSeek / Google Gemini
    │      / OpenRouter / 任意 OpenAI-compatible API)
    │      └─ 支援本地端 LM Studio / Ollama / llama.cpp(OpenAI-compatible)
    ├─ repo-map(Tree-sitter 全倉庫程式碼 AST 分析索引)
    ├─ Git integration(自動 commit,每次修改記錄 diff)
    ├─ Lint & Test runner(修改後自動執行 Linter / Test;失敗自動修正)
    └─ IDE Watch mode(在程式碼中加入 AI 指令注釋,Aider 自動偵測執行)
```

#### 功能分析

| 功能面向 | Aider 能力 | 備註 |
| --- | --- | --- |
| **Agent** | ✅ 完整對話式 Agent 循環(分析 → 修改 → Lint/Test → 自動修正) | 每步修改自動 Git commit |
| **MCP** | ❌ 無 MCP Client / Server 支援 | 無 MCP 整合能力,工具擴充靠 Python |
| **llama.cpp / 本地 LLM** | ✅ 支援「任意 OpenAI-compatible API」 | 官方文件說明可連 LM Studio / Ollama;亦可連 llama.cpp OpenAI server |
| **RAG** | ❌ 無文件向量化 / 語意搜尋 | 以 repo-map(Tree-sitter AST)提供程式碼結構理解,非語意 RAG |
| **多頻道** | ❌ 僅 Terminal 介面 | 無 Web / LINE / Teams / API 多頻道 |
| **排程** | ❌ 無排程能力 | 完全手動觸發 |
| **Git 整合** | ✅ 原生 Git 支援,自動 commit diff | 所有 B 類 / A 類方案中最完整的 Git 工作流 |
| **Repo Map** | ✅ 整倉庫 AST 索引(tree-sitter,100+ 語言) | 大型 codebase 的上下文管理能力突出 |
| **多模態** | ✅ 支援圖片 / 截圖上傳作為上下文(`--image`)| 本地 llama.cpp 多模態視 LLM 模型而定 |
| **聲音輸入** | ✅ Voice-to-code 支援(語音轉文字觸發編碼指令)| 非核心功能 |
| **IDE 整合** | ✅ Watch mode(在程式碼中加 `#ai` 注釋;Aider 持續監聽執行)| 間接整合任何 IDE,不限 VS Code |

#### 部署評估

| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ **符合** | `pip install aider-install; aider-install` 或 `pipx install aider-chat`;完全無 Docker 依賴 |
| C2 Windows | ✅ **符合** | Python 跨平台;官方支援 Windows(PowerShell / CMD);有 Windows 專屬安裝指引 |
| C3 llama.cpp | ✅ **符合** | 官方文件明確支援「任意 OpenAI-compatible API」;可透過 `--openai-api-base http://localhost:8080` 直連 llama.cpp server |
| C4 功能完整 | ❌ **不符合** | Agent ✅ 但 MCP ❌、RAG ❌、多頻道 ❌、排程 ❌;C4 核心功能僅覆蓋 MEC-AI 部分需求 |
| C5 低資源 | ⚠️ **條件符合** | Python CLI 無獨立伺服器,啟動資源低;但 Python 環境 + Tree-sitter + 各依賴套件有一定 install footprint(~300MB pip deps);無持續性背景服務 |
| C6 存續性 | ✅ **良好** | 42.3k stars,169 貢獻者,paul-gauthier 個人主導但高一致性;Apache 2.0;社群有 Discord + 定期 release |
| C7 商用風險 | ✅ **低風險** | Apache 2.0;純開源,無商業付費層 |

#### Aider 獨特優勢(與 Cline 對比)

| 比較面向 | Aider | Cline |
|---|---|---|
| **環境依賴** | Python only(跨平台 CLI)| VS Code IDE(必須安裝)|
| **MCP 支援** | ❌ | ✅ 原生 |
| **Git 整合** | ✅ 原生(自動 commit diff)| ⚠️ 透過 VS Code Git 插件 |
| **Repo Map** | ✅ Tree-sitter 全倉庫 AST | ⚠️ 有限 codebase 結構分析 |
| **CI/CD 整合** | ✅ 可在非 GUI 伺服器環境執行 | ❌ 需要 VS Code GUI 環境 |
| **安裝複雜度** | ✅ `pip install` 即可 | ⚠️ 需要 VS Code + Extension |
| **stars** | 42.3k | 59.2k |

#### MEC-AI 適用性分析

| 取代/強化場景 | 可行性 | 說明 |
| --- | --- | --- |
| 取代 MEC-AI 整體後端(FastAPI + LangGraph) | ❌ 不可行 | Aider 是單人 CLI 工具,無多用戶管理、無 API 端點、無 RAG |
| 取代 Agent 框架(LangGraph) | ❌ 不適合 | Aider Agent 循環設計為程式碼修改場景,無法嵌入通用 FastAPI 服務作為可程式化 Agent |
| 提供 RAG 查詢(文件問答) | ❌ 無此功能 | Repo Map 是程式碼 AST 索引,非文件語意 RAG |
| 整合 MCP / CAD 工具 | ❌ 無 MCP 支援 | Aider 無法作為 MCP Client |
| **作為 MEC-AI 開發團隊工具** | ✅ **高度推薦** | pip 安裝即用,適合工程師在終端機撰寫 FastAPI / LangGraph / React 等 MEC-AI 程式碼;對無 VS Code 偏好者(如 vim/neovim 使用者)尤其適合 |
| **CI/CD 自動程式碼修改** | ⚠️ 技術可行 | Aider 可在 CI 環境(GitHub Actions)中自動修改程式碼並 commit,但不適合 MEC-AI 產品主流程 |

#### 與同類方案(A 類 Coding 助理)最終對比

| 方案 | MCP | RAG | 多用戶後端 | 本地 LLM | 安裝複雜度 | 適合 MEC-AI 產品 |
|---|---|---|---|---|---|---|
| OpenWork(方案13)| ❌ | ❌ | ❌ | ⚠️ | 高(Node+Bun+Rust) | ❌ |
| Cline(方案14)| ✅ | ❌ | ❌ | ✅ | 中(需 VS Code)| ❌ |
| Aider(方案15)| ❌ | ❌ | ❌ | ✅ | 低(pip install)| ❌ |

三者結論一致:均不適合 MEC-AI 企業後端架構,但可作為開發工具。其中 Cline(MCP ✅)與 Aider(pip 輕量安裝 ✅)各有其工具優勢。

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐ (1/5) | 開發者工具,非企業後端,根本定位不符 |
| 功能完整性(通用)| ⭐⭐⭐ (3/5) | Agent + Git + Repo Map 突出;但無 MCP / RAG / 多頻道 |
| 安裝便利性 | ⭐⭐⭐⭐⭐ (5/5) | `pip install` 最低門檻,跨平台即用 |
| 社群存續 | ⭐⭐⭐⭐ (4/5) | 42.3k stars,paul-gauthier 個人主導 → 單點風險 |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | Apache 2.0,商業風險最低 |
| **綜合推薦** | ❌ **MEC-AI 架構選型不建議** | 定位根本不符(終端機 Coding 工具 vs 企業後端)|

**建議定位**:Aider 是開源 AI Coding 助理中**安裝最輕量、最易上手**的選擇(`pip install`,無 Docker 無 VS Code 依賴)。對於 MEC-AI 開發團隊中偏好終端機工作流(vim / neovim / Emacs)的工程師,Aider 是 Cline 的最佳替代開發工具。但就 MEC-AI **產品架構**選型而言,Aider 的設計目標(終端機互動式程式開發)與 MEC-AI 企業後端需求(文件 RAG + CAD MCP + 多用戶 API)根本不符,**不應列入 MEC-AI 架構候選方案**。

---

### 方案 16:kotaemon

- **GitHub**:https://github.com/Cinnamon/kotaemon
- **Stars**:25.2k ⭐(2026-03)
- **分類**:E — RAG/向量引擎(文件問答 Web UI + RAG Pipeline 子類型)
- **授權**:Apache 2.0 ✅
- **語言**:Python 91.5%、HTML 2.9%、Shell 2.2%、Batchfile 1.3%
- **版本**:v0.11.2(67 releases,3 weeks ago;最近一次 commit 為「feat: support MCP tools」)
- **貢獻者**:46 人
- **組織**:Cinnamon(日越 AI 公司,kotaemon.support@cinnamon.is)

#### 專案定性

kotaemon 是一款**開源 RAG 文件問答 Web UI**,定位為「An open-source clean & customizable RAG UI for chatting with your documents」。採用 Gradio 作為前端 UI 框架,提供完整的文件向量化、Hybrid 搜尋(全文+向量+Rerank)、多模態解析、多用戶管理等功能。專案同時服務兩種使用者:

- **End users**:使用 kotaemon 的現成 Web App 進行文件問答
- **Developers**:透過 `import kotaemon` 將 RAG Pipeline 元件嵌入自有系統

#### 架構概覽

```
Browser(Gradio Web UI)
    ↓
kotaemon Backend(Python)
    ├─ Document Ingestion Pipeline
    │      ├─ 多模態解析:Docling(本地)/ Azure Document Intelligence / Adobe PDF Extract
    │      └─ 向量化:本地 fastembed / Ollama Embedding / 外部 API
    ├─ Indexing Pipeline
    │      ├─ 向量索引(pgvector / Chroma / LanceDB / Qdrant 等)
    │      ├─ 全文索引(BM25)
    │      ├─ GraphRAG:NanoGraphRAG / LightRAG / MS GraphRAG
    │      └─ Reranker(Cohere / cross-encoder / VoyageAI)
    ├─ Reasoning Pipeline
    │      ├─ ReAct / ReWOO Agent
    │      ├─ Question Decomposition(多跳推理)
    │      └─ MCP Client(v0.11.2 最新新增)
    └─ LLM 整合:OpenAI / Azure / Ollama / llama-cpp-python / 任意 API
```

#### 功能分析

| 功能面向 | kotaemon 能力 | 備註 |
| --- | --- | --- |
| **RAG(核心)** | ✅ Hybrid RAG(全文 BM25 + 向量搜尋 + Rerank);多向量 DB 支援 | E 類核心價值 |
| **GraphRAG** | ✅ NanoGraphRAG / LightRAG / MS GraphRAG 三種 Graph 索引 | 超越簡單語意搜尋的複雜推理 |
| **文件解析** | ✅ 多模態:PDF / HTML / MHTML / XLSX / 圖表 / 表格;Docling 本地 OCR | C4 文件解析能力最強 |
| **MCP** | ✅ v0.11.2 新增 MCP Tools 支援(3 weeks ago) | 可連接 CAD Tools MCP Server |
| **Agent** | ✅ ReAct / ReWOO / Question Decomposition | 複雜多跳問題推理 |
| **llama.cpp** | ✅ `llama-cpp-python` 明確列舉為本地 LLM 支援方案 | 直接整合,非 OpenAI-compatible 間接包裝 |
| **本地 Embedding** | ✅ fastembed(本地,無需外部 API);nomic-embed-text 相容 | MEC-AI 的 nomic-embed-text 可直接替換 |
| **多用戶** | ✅ 內建使用者管理、私有/公開文件集合、SSO 登入(企業版)| 符合 MEC-AI 多用戶需求 |
| **引用與溯源** | ✅ 詳細引用 + PDF viewer 高亮顯示(置信分數)| MEC-AI 文件查詢溯源需求 |
| **多頻道** | ❌ 僅 Gradio Web UI | 無 LINE / Teams / API 多頻道 |
| **排程** | ❌ 無排程能力 | 完全手動觸發 |

#### 部署評估

| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ **符合** | Docker 為「Recommended」但明確有「Without Docker」路徑:Option 1 (uv)、Option 2 (conda)、Option 3 (pip + git install)。Docker **非必要** |
| C2 Windows | ⚠️ **條件符合** | Python 跨平台,conda/pip 在 Windows 原生可執行;但主要安裝腳本(`run_uv.sh`)為 bash shell;有 Batchfile(`.bat`)存在,但文件主要以 Linux/Mac 描述。Windows 可用,需手動安裝步驟 |
| C3 llama.cpp | ✅ **符合** | 官方文件明確列舉 `llama-cpp-python` 作為本地 LLM 方案;Ollama 亦支援(間接使用 llama.cpp 後端)|
| C4 功能完整 | ✅ **符合** | RAG ✅、MCP ✅(v0.11.2)、Agent(ReAct/ReWOO)✅、多用戶 ✅、多模態 ✅;唯無多頻道 / 無排程 |
| C5 低資源 | ⚠️ **條件符合** | Python + Gradio 全棧服務,比純 CLI 工具重量較高;但無硬體加速要求,可在 CPU-only 環境運行(llama-cpp-python CPU 推理);本地 fastembed 輕量 |
| C6 存續性 | ✅ **良好** | 25.2k stars,Cinnamon 公司支撐,67 releases,近期仍活躍(3 週前 commit)|
| C7 商用風險 | ✅ **低風險** | Apache 2.0,無付費功能鎖定,SSO 為開源版亦支援(sso_app.py 存在於倉庫)|

#### MEC-AI 適用性分析——E 類首選理由

kotaemon 是迄今評估的所有方案中,**最直接對應 MEC-AI 文件 RAG 需求**的方案。五點核心符合:

**① Hybrid RAG 完整實現**

MEC-AI SA 文件的 pgvector 方案僅提供基本向量搜尋。kotaemon 開箱即用提供:
- BM25 全文搜尋 + 向量搜尋 → **Hybrid Search(Fusion)**
- Reranker(cross-encoder / Cohere / VoyageAI)→ 精準排序
- 效果顯著優於裸 pgvector

**② GraphRAG 支援**

NanoGraphRAG / LightRAG 使文件問答能跨越段落邊界,進行實體關係推理——適合工程技術文件的複雜問題(如「這個規格與哪些 CAD 工序相關?」)

**③ MCP 原生整合(v0.11.2)**

最新版本加入 MCP Tools 支援,可與 MEC-AI 的 CAD Tools MCP Server(Port 8100)整合,在 RAG 問答流程中自動呼叫 CAD 工具

**④ llama-cpp-python 本地推理**

與 MEC-AI 的 llama.cpp 策略完全一致;Qwen2.5-VL 7B GGUF 可直接透過 llama-cpp-python 接入 kotaemon

**⑤ 本地 Embedding(fastembed)**

fastembed 支援 nomic-embed-text 同類輕量 Embedding 模型,可在無 GPU 環境下達到合理效果

#### 整合路徑建議

| 整合模式 | 可行性 | 說明 |
| --- | --- | --- |
| **完整取代 MEC-AI RAG 層** | ✅ 可行 | 將 kotaemon 作為獨立 RAG 服務部署,MEC-AI FastAPI 透過 kotaemon REST API 查詢文件 |
| **Library 整合** | ✅ 可行 | `pip install kotaemon`,在 MEC-AI LangGraph Pipeline 中 import kotaemon 的 RAG 元件(Retriever / Reranker)|
| **並行部署(雙系統)** | ✅ 推薦 | kotaemon 負責文件管理 + RAG 查詢;MEC-AI FastAPI 負責 Agent 協調 + CAD MCP;兩系統透過 REST API 通訊 |
| **取代 MEC-AI 整體架構** | ❌ 不適合 | kotaemon Gradio UI 與 MEC-AI React 前端衝突;kotaemon 無法取代 LangGraph Agent 狀態機 |

#### 主要限制

1. **單一 Web UI 頻道**:kotaemon 使用 Gradio,MEC-AI 有自己的 React 前端,兩者 UI 衝突;若要整合需以 API 模式運作,kotaemon UI 設計並非為 API-first
2. **Windows 安裝腳本**:主要 `run_uv.sh` 為 bash 腳本,Windows 需手動 conda/pip 安裝,相較 Linux/Mac 步驟較繁瑣
3. **無排程文件批次索引**:kotaemon 沒有定時爬取/批次更新文件的排程機制,需手動上傳
4. **GraphRAG 限制**:MS GraphRAG 僅支援 OpenAI / Ollama API,不支援純 llama-cpp-python 後端;NanoGraphRAG 則無此限制

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐⭐⭐⭐ (4/5) | RAG 核心需求完整覆蓋;Gradio UI 衝突與無排程是主要減分項 |
| 功能完整性(通用)| ⭐⭐⭐⭐⭐ (5/5) | Hybrid RAG + GraphRAG + MCP + 多模態 + 多用戶 + llama-cpp |
| 安裝便利性 | ⭐⭐⭐ (3/5) | 非 Docker 路徑可行,但 Windows 需手動步驟 |
| 社群存續 | ⭐⭐⭐⭐ (4/5) | Cinnamon 公司支撐,25.2k stars,持續活躍 |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | Apache 2.0 |
| **綜合推薦** | ✅ **E 類首選:強烈建議作為 MEC-AI RAG 層取代/強化方案** | |

**建議定位**:kotaemon 是目前評估的所有方案中,**最直接強化 MEC-AI 文件 RAG 能力**的選擇,建議以**並行部署模式**整合:kotaemon 作為文件 RAG 服務(負責文件上傳、向量化、Hybrid Search、GraphRAG、Reranker),MEC-AI FastAPI 作為 Agent 協調層(透過 REST API 呼叫 kotaemon 的查詢端點)。主要待驗證項目:Windows conda/pip 安裝流程完整性,以及 kotaemon REST API 查詢端點的自訂整合可行性。

---

### 方案 17:deepagents

- **GitHub**:https://github.com/langchain-ai/deepagents
- **Stars**:16.8k ⭐(2026-03)
- **分類**:B — Agent 框架(LangGraph 原生 Agent Harness)
- **授權**:MIT ✅
- **語言**:Python 99.4%
- **版本**:deepagents==0.4.12(74 releases,3 days ago;持續高頻更新)
- **貢獻者**:101 人(包含 LangChain 核心成員 hwchase17、eyurtsev)
- **組織**:langchain-ai(LangChain 官方組織,Harrison Chase 團隊)

#### 專案定性

deepagents 是 **langchain-ai 官方推出的「開箱即用 Agent Harness」**,定位為「The batteries-included agent harness」。核心設計理念:不需要自行組裝 Prompt、工具與上下文管理,`create_deep_agent()` 即可獲得一個立即可用的、完整功能的 Agent。

**關鍵技術特點**:`create_deep_agent()` **返回一個編譯完成的 LangGraph graph**——這意味著 deepagents 與 MEC-AI 的 LangGraph 技術棧**完全相容**,可直接嵌入 MEC-AI 的 FastAPI 後端使用。

**靈感來源**:README 明確說明「This project was primarily inspired by Claude Code」——定位為通用目的 Agent,而非僅限程式碼助理。

#### 架構概覽

```
create_deep_agent()  →  Compiled LangGraph Graph
    ├─ Planning:write_todos(任務分解與追蹤)
    ├─ Filesystem:read_file / write_file / edit_file / ls / glob / grep
    ├─ Shell:execute(命令執行,含 Sandboxing)
    ├─ Sub-agents:task(子 Agent 委派,獨立 context window)
    ├─ Context Management:自動摘要(對話過長時)
    ├─ MCP:langchain-mcp-adapters(原生支援)
    └─ 自訂擴充:tools=[my_custom_tool]、system_prompt 可覆寫
```

```python
# 最簡用法
from deepagents import create_deep_agent
agent = create_deep_agent()
result = agent.invoke({"messages": [...]})

# 自訂 LLM(任意 OpenAI-compatible)
from langchain.chat_models import init_chat_model
agent = create_deep_agent(
    model=init_chat_model("openai:gpt-4o"),   # 可替換為 llama.cpp 端點
    tools=[my_custom_tool],
    system_prompt="你是機械工程文件助理",
)
```

#### 功能分析

| 功能面向 | deepagents 能力 | 備註 |
| --- | --- | --- |
| **Agent(核心)** | ✅ 完整 LangGraph 狀態機 Agent;Planning + Sub-agents + Context 管理 | `create_deep_agent()` 直接返回 LangGraph graph |
| **MCP** | ✅ 透過 `langchain-mcp-adapters` 原生支援 | **與 MEC-AI 使用相同依賴**(langchain-mcp-adapters)|
| **llama.cpp** | ✅ Provider agnostic;`init_chat_model` 支援任意 OpenAI-compatible API | 可直連 llama.cpp `--port 8080 --api-key dummy` |
| **Sub-agents** | ✅ `task` 工具:委派子任務至獨立 context window | 多 Agent 協作能力 |
| **Planning** | ✅ `write_todos` 任務分解追蹤 | 結構化任務規劃 |
| **Filesystem** | ✅ 完整 CRUD(read/write/edit/ls/glob/grep) | 設計原為程式碼 Agent,對文件管理有用 |
| **Shell 執行** | ⚠️ `execute` 工具,含 Sandboxing | **企業環境需評估 Shell 執行權限範圍** |
| **RAG** | ❌ 無內建 RAG | 需自行添加 RAG 工具(如 kotaemon REST API)|
| **多頻道** | ❌ 僅 Python SDK + CLI TUI | 無 Web UI / LINE / Teams |
| **Context 管理** | ✅ 自動摘要(對話過長);大輸出存 file | LangGraph Checkpointer 支援 |
| **Headless 模式** | ✅ CLI `--headless`,可用於 CI/CD 自動化 | 批次任務腳本化 |
| **Web Search** | ✅ CLI 版含 Web Search | 線上資訊接地 |
| **Persistent Memory** | ✅ CLI 版含 persistent memory | 跨 session 記憶 |

#### 部署評估

| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ✅ **符合** | `pip install deepagents` 或 `uv add deepagents`,**無任何 Docker 依賴** |
| C2 Windows | ✅ **符合** | Python 跨平台;CLI 安裝腳本為 bash,但 SDK pip install 在 Windows 原生可用;Windows PowerShell 可直接執行 |
| C3 llama.cpp | ✅ **符合** | 官方說明「provider agnostic,works with any LLM that supports tool calling,including both frontier and open models」;透過 `init_chat_model` 接受任意 OpenAI-compatible API |
| C4 功能完整 | ⚠️ **部分符合** | Agent ✅、MCP ✅、Planning ✅、Sub-agents ✅;但 RAG ❌、多頻道 ❌、排程 ❌ |
| C5 低資源 | ✅ **符合** | Python SDK,無獨立伺服器,無 Docker;LangGraph Checkpointer 可用 SQLite(輕量)|
| C6 存續性 | ✅ **優異** | langchain-ai 官方組織(業界頭部 LLM 框架);16.8k stars,101 貢獻者(含核心 LangChain 開發者);4 hours ago 更新 |
| C7 商用風險 | ✅ **低風險** | MIT 授權,100% 開源,無付費功能鎖定 |

#### MEC-AI 適用性分析——B 類新入選理由

deepagents 與 MEC-AI 技術棧的相容性是目前 B 類方案中**最高**的,原因如下:

**① LangGraph Native(最核心優勢)**

MEC-AI SA 文件指定使用「LangGraph 0.3+ Agent」。deepagents 的 `create_deep_agent()` **直接返回一個 compiled LangGraph graph**。這意味著:
- 可以直接替換 MEC-AI 目前的 LangGraph Agent 定義
- 繼承所有 LangGraph 特性:streaming、studio、checkpointers、狀態持久化
- 無縫整合 MEC-AI 現有的 FastAPI + LangGraph 架構

**② 相同 MCP 依賴**

MEC-AI SA 文件使用 `langchain-mcp-adapters` 連接 CAD Tools MCP Server。deepagents **也使用完全相同的 langchain-mcp-adapters**,代表 CAD MCP Server(Port 8100)可直接插入 deepagents 的工具鏈,**零改動成本**。

**③ Provider Agnostic**

`init_chat_model("openai:gpt-4o")` 的 `openai:` 前綴可替換為任意 OpenAI-compatible endpoint。MEC-AI 的 llama.cpp server 可直接接入。

**④ Sub-agents 能力**

MEC-AI 若未來需要多步驟複雜任務(如:先查詢文件 → 再呼叫 CAD 工具 → 再生成報告),deepagents 的 `task` Sub-agent 工具提供天然的任務委派架構。

#### 主要限制

1. **無內建 RAG**:需自行添加文件向量搜尋工具(建議與 kotaemon REST API 整合)
2. **Shell 執行安全**:`execute` 工具預設允許 Shell 命令執行。MEC-AI 為企業內網環境,需在工具層明確限制執行範圍(不應開放任意 Shell 命令)
3. **設計初衷為 Coding Agent**:雖非硬限制,但預設工具(filesystem/shell)偏向程式開發,需替換為 MEC-AI 相關工具(CAD MCP、文件查詢)
4. **CLI 設計限制**:CLI TUI 介面(類似 Claude Code)與 MEC-AI 的 React 前端整合需透過 SDK 模式而非 CLI 模式

#### 與 B 類現有方案對比

| 方案 | LangGraph 原生 | MCP | llama.cpp | Docker 非必要 | Windows | В 類建議 |
|---|---|---|---|---|---|---|
| PicoClaw | ❌(Go) | ✅ | ✅ api_base | ✅ | ✅ | ✅ 首選 |
| **deepagents** | **✅(Python)** | **✅** | **✅** | **✅** | **✅** | **⚠️ 強力推薦(LangGraph 直接取代)**|
| ZeroClaw | ❌(Rust) | ✅ | ✅ | ✅ | ⚠️ | ⚠️ 次選 |
| IronClaw | ❌(Rust) | ✅ | ⚠️ | ⚠️ | ✅ | ⚠️ 條件 |
| Langflow | ❌(視覺化) | ✅ | ⚠️ | ✅ | ✅ | ⚠️ |

**deepagents 的核心差異**:其他 B 類方案皆需「橋接」到 LangGraph(MEC-AI 的技術棧),而 deepagents 本身就是 LangGraph — **取代成本最低**。

#### 整合路徑建議

| 整合模式 | 可行性 | 說明 |
| --- | --- | --- |
| **直接取代 MEC-AI LangGraph Agent** | ✅ 最推薦 | 將 MEC-AI 的 `langgraph_agent` 替換為 `create_deep_agent(model=llama_cpp_client, tools=[cad_mcp_tools, kotaemon_rag_tool])`;保持 FastAPI 不變 |
| **自訂工具擴充** | ✅ 可行 | 添加 kotaemon RAG 查詢工具、移除 filesystem/shell 預設工具 |
| **Sub-agent 多步驟工作流** | ✅ 可行 | 主 Agent 協調 → Sub-agent 執行 CAD 查詢 + 文件搜尋 |
| **完整取代後端架構** | ⚠️ 不建議 | deepagents 為 Library,不提供 FastAPI Web Server;仍需 MEC-AI FastAPI 作為 HTTP 層 |

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI 場景適用性 | ⭐⭐⭐⭐ (4/5) | LangGraph 原生整合 + 相同 MCP 依賴;主要缺 RAG |
| 功能完整性(Agent)| ⭐⭐⭐⭐⭐ (5/5) | Planning + Sub-agents + MCP + Context 管理全備 |
| 安裝便利性 | ⭐⭐⭐⭐⭐ (5/5) | `pip install deepagents`,無任何額外依賴 |
| 社群存續 | ⭐⭐⭐⭐⭐ (5/5) | langchain-ai 官方,業界頂級組織背書 |
| 商用授權 | ⭐⭐⭐⭐⭐ (5/5) | MIT |
| **綜合推薦** | ⚠️ **強力條件推薦:B 類 LangGraph 直接取代方案** | |

**建議定位**:deepagents 是 **B 類方案中與 MEC-AI 技術棧相容性最高**的選擇。建議整合路徑:以 `create_deep_agent(model=llama_cpp_endpoint, tools=[cad_mcp_server_tools, kotaemon_rag_query_tool])` **直接取代 MEC-AI 現有 LangGraph Agent 定義**,配合 kotaemon(E 類首選)提供 RAG 能力,形成「deepagents(B)+ kotaemon(E)」的互補架構。主要評估項目:Shell `execute` 工具在 MEC-AI 企業環境的安全範圍設定,以及預設 Filesystem 工具是否與 MEC-AI 工作流相符。

---

### 方案 18:onyx

- **GitHub**:https://github.com/onyx-dot-app/onyx
- **Stars**:18k ⭐(2026-03;前身為 Danswer)
- **分類**:A — 全棧 Chat 平台(企業級 AI 知識平台子類型)
- **授權**:MIT(Community Edition)/ 商業 Enterprise Edition(部分功能)
- **語言**:Python 63.3%、TypeScript 31.0%、Go 1.5%
- **版本**:v3.0.4(149 releases,3 days ago;8 hours ago 最新 commit「fix: windows install improvements」)
- **貢獻者**:198 人
- **組織**:onyx-dot-app(前身 Danswer,VC 資助商業公司,有 Cloud SaaS 版本)

#### 專案定性

Onyx 是一個**功能最完整的開源 AI 知識平台**,定位為「Open Source AI Platform — AI Chat with advanced features that works with every LLM」。集成 Chat UI、企業 RAG(hybrid-search + knowledge graph)、Agents、MCP、Deep Research、40+ 知識來源連接器,幾乎是迄今評估的 A 類方案中**功能密度最高**的一個。

原名 **Danswer**(企業文件問答系統),後重新定位為全棧 AI 平台並改名 Onyx,目前雙軌運營:開源 CE(MIT)+ 商業 EE。

**與 A 類其他方案對比定性**:
| 方案 | 定位 | 完整性 |
|---|---|---|
| LibreChat | 多 LLM Chat UI | 中 |
| **onyx** | **企業 AI 知識平台(RAG + Agent + MCP 全棧)** | **最高** |
| OpenWork / Cline / Aider | AI Coding 工具 | 低(非 MEC-AI 場景)|

#### 架構概覽

```
Browser(Next.js 前端)
    ↓
onyx Backend(Python FastAPI)
    ├─ Chat & Agents Layer
    │      ├─ Custom Agents(指令 + 知識源 + Actions)
    │      ├─ Deep Research(多步驟 Agentic Search)
    │      └─ MCP(Actions & MCP Integration)
    ├─ RAG Pipeline
    │      ├─ 40+ Connectors(Confluence、Slack、GitHub、Google Drive、Jira...)
    │      ├─ Hybrid Search(全文 + 向量)
    │      ├─ Knowledge Graph(自建 Graph 索引)
    │      └─ Reranker
    ├─ Code Interpreter(執行程式碼)
    ├─ Web Search(Google PSE / Exa / Serper / Firecrawl)
    ├─ Image Generation
    └─ Enterprise Features
           ├─ SSO(OIDC/SAML/OAuth2)
           ├─ RBAC(角色權限管理)
           └─ Document Permissioning(鏡像外部系統存取權限)

資料層:PostgreSQL + pgvector(向量)+ Vespa(搜尋引擎)+ Redis
```

#### 功能分析

| 功能面向 | onyx 能力 | MEC-AI 相關性 |
| --- | --- | --- |
| **Chat UI** | ✅ Next.js 完整 Web UI | 可取代 MEC-AI React 前端 |
| **RAG** | ✅ Hybrid Search + Knowledge Graph;支援數千萬文件規模 | 覆蓋 MEC-AI 文件查詢需求 |
| **Agent** | ✅ Custom Agents(指令 + 知識 + Actions)+ Deep Research | 超越 MEC-AI 現有 LangGraph Agent |
| **MCP** | ✅ Actions & MCP 整合(可連接外部系統)| 可接 CAD Tools MCP Server |
| **llama.cpp** | ✅ 支援 Ollama / vLLM / 任意 OpenAI-compatible | 可接 llama.cpp server |
| **40+ Connectors** | ✅ Confluence、Slack、GitHub、Google Drive、Jira 等 | MEC-AI 若需連接企業知識庫有優勢 |
| **多用戶管理** | ✅ RBAC + SSO + 文件權限鏡像 | 符合 MEC-AI 多用戶需求 |
| **Code Interpreter** | ✅ 執行程式碼分析資料 | MEC-AI 輔助功能 |
| **Web Search** | ✅ Google PSE / Exa / Serper | MEC-AI 可選擴充 |
| **Image Generation** | ✅ 根據 Prompt 生成圖片 | MEC-AI 較次要 |
| **排程** | ⚠️ Connector 可定時同步;無手動觸發排程 | 文件批次更新有基礎支援 |
| **多頻道** | ❌ 僅 Web UI | 無 LINE / Teams / API 多頻道 |

#### 部署評估

| 評估準則 | 結果 | 說明 |
| --- | --- | --- |
| C1 非 Docker | ❌ **不符合** | 官方 README 唯一快速安裝命令為 Docker `curl \| bash install.sh`;部署選項:Docker / Kubernetes / Terraform;無官方 Non-Docker 本機安裝文件。最新 commit「fix: windows install improvements」改善的是 Windows Docker 安裝體驗,非原生安裝 |
| C2 Windows | ⚠️ **條件符合** | 最新 commit(8 hours ago)正在改善 Windows 安裝;但 onyx 在 Windows 上仍需 Docker Desktop 或 WSL2;全框架無 Native Windows 執行路徑 |
| C3 llama.cpp | ✅ **符合** | 支援 Ollama / vLLM / 任意 OpenAI-compatible API;可透過 llama.cpp `--port 8080` OpenAI server mode 接入 |
| C4 功能完整 | ✅ **最完整** | RAG ✅、MCP ✅、Agent ✅、多用戶 ✅、40+ Connectors ✅;A 類方案中 C4 評分最高 |
| C5 低資源 | ❌ **不符合** | 全棧服務:Next.js 前端 + Python 後端 + **PostgreSQL + Vespa(重量級搜尋引擎)+ Redis + Nginx**;Vespa 本身建議 16GB RAM 以上;完全不適合 OA 筆電部署 |
| C6 存續性 | ✅ **優異** | 18k stars,198 貢獻者,VC 資助,商業 SaaS 版本(cloud.onyx.app);前身 Danswer 歷史悠久 |
| C7 商用風險 | ⚠️ **中風險** | CE 為 MIT 授權;但 EE(Enterprise Edition)商業化路線是長期收費功能分流的隱患;SSO、RBAC、Document Permissioning 等企業功能已部分進入 EE tier |

#### MEC-AI 適用性分析

| 取代/強化場景 | 可行性 | 說明 |
| --- | --- | --- |
| **完整取代 MEC-AI 後端(FastAPI + LangGraph + pgvector)** | ⚠️ 技術可行,但不建議 | onyx 覆蓋所有 MEC-AI 功能層;但 Docker 強依賴 + Vespa 重量級 + OA 筆電資源不足是根本障礙 |
| **取代 MEC-AI RAG 層(pgvector)** | ⚠️ 過度殺傷 | onyx RAG 能力超強,但整體架構太重,不適合僅取代 RAG 層(相比 kotaemon 更輕量)|
| **取代 MEC-AI Chat 前端(React)** | ❌ 不建議 | onyx Next.js 前端與自有 MEC-AI 後端整合需大量定制工作 |
| **Server 端企業部署(非 OA 筆電)** | ✅ 可行(條件) | 若 MEC-AI 未來在有資源的 Server 環境部署(16GB+ RAM,Docker 許可),onyx 是**最完整的企業 AI 平台**選擇 |
| **整合 CAD Tools MCP Server** | ✅ 技術可行 | onyx 的 MCP Actions 可連接 Port 8100 CAD MCP Server |

#### 關鍵限制(MEC-AI OA 筆電場景)

1. **C1 + C5 雙重障礙**:Docker 強依賴 + Vespa 重量級搜尋引擎,資源需求超出 OA 筆電能力
2. **架構完整性的代價**:onyx 越功能完整,架構越重,與 MEC-AI「低資源、OA 筆電離線部署」的核心限制條件衝突越大
3. **EE 功能鎖定趨勢**:SSO、完整 RBAC、Document Permissioning 逐步向 EE 遷移,CE 長期維護成本存在不確定性
4. **深度定制難度**:onyx 是 full-stack 完整產品,與 MEC-AI 現有 FastAPI 架構整合需要大量橋接工作

#### 與同類 A 類方案對比

| 方案 | RAG | MCP | Agent | 多用戶 | C1(非Docker) | C5(低資源) | MEC-AI 適合度 |
|---|---|---|---|---|---|---|---|
| LibreChat | ⚠️ | ⚠️ | ⚠️ | ✅ | ✅ | ⚠️ | ⚠️ |
| **onyx** | **✅(最強)** | **✅** | **✅** | **✅** | **❌** | **❌** | **⚠️** |

**關鍵觀察**:onyx 在 A 類方案中**功能最完整**,但也因此**資源需求最重**。對於有充足資源的企業 Server 部署場景,onyx 遠優於 LibreChat;但對於 MEC-AI 的 OA 筆電離線部署場景,兩者皆有障礙,LibreChat 反而因較輕量而略勝。

#### 綜合建議

| 面向 | 評分 | 說明 |
| --- | --- | --- |
| MEC-AI OA 筆電場景適用性 | ⭐⭐ (2/5) | Docker 強依賴 + Vespa 重量級,根本資源衝突 |
| 功能完整性(通用)| ⭐⭐⭐⭐⭐ (5/5) | A 類方案中功能密度最高(RAG+Agent+MCP+40+連接器)|
| 安裝便利性 | ⭐⭐ (2/5) | Docker 強依賴,多服務編排複雜 |
| 社群存續 | ⭐⭐⭐⭐⭐ (5/5) | VC 資助商業公司 + SaaS 版,存續性最有保障 |
| 商用授權 | ⭐⭐⭐ (3/5) | CE 為 MIT;EE 商業化有功能鎖定風險 |
| **綜合推薦** | ⚠️ **條件推薦(Server 端大型部署場景)** | |

**建議定位**:onyx 是 A 類評估方案中**功能最完整的企業 AI 知識平台**,集 RAG + Agent + MCP + 40+ Connectors + 企業管理於一體,適合有充足 Server 資源且 Docker 部署無限制的場景。就 MEC-AI **當前 OA 筆電離線限制**而言,C1(Docker 強依賴)與 C5(Vespa 16GB+ 資源需求)是無法繞過的根本障礙,**不建議作為 MEC-AI 主架構**。但若 MEC-AI 未來演進至 Server 端企業部署(Docker 許可、資源充足),onyx 將是最值得考慮的全棧升級路線。

---

### 方案 19:opencode(anomalyco/opencode)

- **GitHub**:https://github.com/anomalyco/opencode
- **Stars**:128,000 ⭐(2026-03,A 類迄今評估方案中最高)
- **分類**:A — 全棧 Chat 平台(Terminal + Desktop + IDE AI Coding Agent)
- **授權**:MIT
- **語言**:TypeScript 55.3%、MDX 40.7%、CSS 3.1%、Rust 0.5%
- **版本**:v1.3.0(738 releases,最新 commit 1 小時前,極度活躍)
- **Contributors**:824 人
- **組織**:anomalyco(SST framework 原創團隊,Anomaly Inc.,同為 terminal.shop 開發者)
- **定位**:「The open source AI coding agent」—— 標榜 100% 開源、Provider-agnostic、Client/Server 架構、TUI 優先

---

#### 功能分析

| 功能面向        | opencode 能力                                                                                                   | 備註                                                                                      |
| --------------- | --------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------- |
| **Agent**       | ✅ 內建三種 Agent:`build`(全存取開發)、`plan`(唯讀分析)、`@general`(通用子 Agent 複雜任務)               | Tab 鍵切換;`@general` 可跨步驟多工                                                        |
| **RAG**         | ❌ 無內建 RAG 或文件向量搜尋;定位為程式碼庫探索(LSP + 檔案 @引用 + Repo Map-style 分析)                       | 無 pgvector / BM25 / Rerank 等語意搜尋能力                                                |
| **MCP**         | ✅ 完整 MCP 支援:本地(stdio)+ 遠端(HTTP/SSE)+ OAuth 自動認證(RFC 7591 動態註冊)                           | 官方文件含詳細設定範例(Sentry、Context7、Grep by Vercel 等)                             |
| **SKILLS**      | ✅ 支援 Agent Skills(技能模組)+ Custom Tools + Plugins 生態系                                                   | `AGENTS.md` 規則文件驅動;`/init` 自動生成                                               |
| **LLM 整合**    | ✅ 75+ LLM Providers(Claude/OpenAI/Google/Ollama/Groq/OpenRouter 等)                                           | 使用 AI SDK + Models.dev 統一路由                                                         |
| **llama.cpp**   | ✅ **官方文件明確提供 llama.cpp Provider 設定範例**(`@ai-sdk/openai-compatible`,`baseURL: "http://127.0.0.1:8080/v1"`) | 與 MEC-AI llama.cpp server 架構直接相容                                              |
| **LSP**         | ✅ Out-of-the-box LSP 支援(語法提示、類型檢查)                                                                  | 開發工具特有功能,無對應 MEC-AI 需求                                                      |
| **多介面**      | ✅ TUI + Desktop App(Beta)+ IDE Extension + Web(`opencode.ai/s/`分享)                                        | Client/Server 架構:Server 端運行,可從行動裝置遠端操控                                  |
| **ACP**         | ✅ Agent Communication Protocol 支援(跨 Agent 通訊)                                                            | 對等 LangGraph multi-agent 但面向 Coding 場景                                             |
| **多模態**      | ✅ 圖片拖放到 TUI 進行分析                                                                                        | 限於 Coding 場景(截圖設計稿 → 生成 UI 程式碼)                                          |
| **稽核日誌**    | ❌ 無企業級稽核日誌                                                                                               | 個人 / 開發團隊工具定位,無 FR-05 稽核需求                                                |

---

#### 部署評估(C1–C7)

| 評估準則         | 結果        | 說明                                                                                                                                                                                  |
| ---------------- | ----------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker     | ✅ **符合**  | 安裝方式多元:`npm install -g opencode-ai`、`scoop install opencode`、`choco install opencode`、Desktop .exe 直接下載,完全無 Docker 依賴                                               |
| C2 Windows       | ⚠️ **條件** | Windows 原生支援(scoop/choco/Desktop .exe),但官方文件明示「**為了在 Windows 上獲得最佳體驗,我們推薦使用 WSL**」;原生使用功能完整但效能略遜                                         |
| C3 llama.cpp     | ✅ **符合**  | 官方 Providers 文件**專頁說明** llama.cpp 設定(`@ai-sdk/openai-compatible` + `baseURL`),與 MEC-AI llama.cpp server(Port 8080/v1)完全相容                                           |
| C4 功能完整性    | ⚠️ **部分** | MCP ✅、AGENT ✅(3種)、SKILLS ✅(Custom Tools + Plugins);**RAG ❌**(無文件向量搜尋,不具備 MEC-AI 企業文件查詢核心功能);多頻道 ❌(單一 TUI/Desktop/IDE 界面,無 API Channel)  |
| C5 低資源消耗    | ⚠️ **條件** | TUI/CLI 本體極輕量(TypeScript 執行期 + Bun 執行環境);資源消耗取決於所接 LLM(接 llama.cpp 時同 MEC-AI 基準);Desktop App 額外佔用 Electron-like 資源                              |
| C6 存續性        | ✅ **優秀**  | 128k stars(GitHub 同類最高)、824 contributors、738 releases、最新 commit 1 小時前、anomalyco(SST)全職商業公司運營、Discord 活躍社群                                                |
| C7 商用風險      | ✅ **無風險**| MIT License 全功能開源;無 EE 商業版分層;OpenCode Zen(付費 API 代理)完全可選,不影響核心功能使用                                                                                   |

---

#### 與同類 A 類 Coding Agent 對比(Cline vs. Aider vs. opencode)

| 比較項目        | Cline(方案14)     | Aider(方案15)     | opencode(方案19)           |
| --------------- | ------------------- | ------------------- | ---------------------------- |
| Stars           | 59.2k              | 42.3k              | **128k ⭐**                  |
| License         | Apache 2.0         | Apache 2.0         | **MIT**                      |
| 形態            | VS Code Extension  | Terminal CLI       | TUI + Desktop + IDE + Web    |
| llama.cpp       | ✅(OpenAI-compat)| ✅(OpenAI-compat)| ✅ **官方明確文件**           |
| MCP             | ✅ 原生             | ❌ 不支援           | ✅ **完整(本地+遠端+OAuth)**|
| Multi-Agent     | ❌                  | ❌                  | ✅ build/plan/general 3種    |
| ACP             | ❌                  | ❌                  | ✅                            |
| LSP             | ❌                  | ⚠️(ctags)         | ✅ **Out-of-the-box**        |
| RAG             | ❌                  | ❌                  | ❌                            |
| Windows 原生    | ✅ VS Code 內       | ✅ pip              | ✅(WSL 更佳)                |
| 活躍度          | 活躍               | 活躍               | **極度活躍(1hr最新commit)** |

---

#### MEC-AI 適用性分析

**核心問題:定位根本不符**

opencode 是一個以**程式碼生成與程式碼庫探索**為核心的 AI Coding Agent,其設計目標是輔助開發者編寫、修改、理解程式碼。MEC-AI 的核心需求是:

1. **企業文件查詢**(PDF/圖紙語意搜尋 + RAG)→ opencode 無此功能
2. **CAD 快捷命令查詢**(MCP CAD 工具呼叫)→ opencode MCP ✅ 但整體架構非此設計
3. **多頻道訊息服務**(API / Webhook / Channel)→ opencode 無此架構
4. **FastAPI + LangGraph + pgvector 後端**→ opencode 是終端工具,非後端框架

**與 Cline / Aider 的相同結論**:雖然 opencode 的技術能力遠超 Cline 和 Aider(MCP 完整、llama.cpp 官方、多 Agent、128k stars),但**功能定位的根本差異**使其同樣不適合作為 MEC-AI 主架構。

---

#### 總評

| 向度           | 評分(5分制)  | 說明                                                                       |
| -------------- | -------------- | -------------------------------------------------------------------------- |
| 功能符合度     | ⭐⭐ (2/5)      | MCP + AGENT + SKILLS 對得上,但無 RAG / 無多頻道是根本缺失                 |
| 部署便利性     | ⭐⭐⭐⭐ (4/5)   | npm/scoop/choco/exe,Windows 原生支援,無 Docker                           |
| 資源消耗       | ⭐⭐⭐⭐ (4/5)   | TUI 本體輕量,接 llama.cpp 後資源消耗同 MEC-AI                             |
| 公司存續性     | ⭐⭐⭐⭐⭐ (5/5)  | 128k stars + SST 全職公司 + 824 contributors + 極度活躍,存續風險最低      |
| 商用成本風險   | ⭐⭐⭐⭐⭐ (5/5)  | MIT 全功能開源,無任何商業授權風險                                         |
| **綜合推薦**   | ❌ **不建議作為 MEC-AI 核心架構**;✅ **A 類 Coding Agent 開發工具首選**   |                                                                            |

**建議定位**:opencode 是 A 類 AI Coding Agent 方案中**綜合能力最強、社群最活躍、授權最乾淨**的工具(128k stars MIT,遠超 Cline 59.2k 和 Aider 42.3k)。其 llama.cpp 官方原生支援、完整 MCP 生態(與 MEC-AI MCP CAD Server 直接相容)、Multi-Agent 架構(build/plan/general)、ACP 跨 Agent 通訊,使其成為 MEC-AI **開發團隊日常作業的首選 AI 程式碼助理**。在 MEC-AI 開發迭代階段,以 opencode + llama.cpp(本地 Qwen2.5-VL)組合可實現全程離線內網開發,無雲端 API 費用,**強烈推薦取代 Cline / Aider 作為團隊統一 AI 開發工具**。

---

### 方案 20:AnythingLLM(Mintplex-Labs/anything-llm)

- **GitHub**:https://github.com/Mintplex-Labs/anything-llm
- **Stars**:56,600 ⭐(2026-03)
- **分類**:A — 全棧 Chat 平台(All-in-One AI+RAG Knowledge Chat,兼具 E 類完整 RAG 能力)
- **授權**:MIT
- **語言**:JavaScript 98.3%、CSS 1.4%、Dockerfile 0.2%
- **版本**:v1.11.2(26 releases,5 days ago)
- **Contributors**:202 人
- **組織**:Mintplex Labs Inc.(商業公司,提供雲端 Hosted 版為可選付費服務)
- **定位**:「The all-in-one AI app you were looking for」— Chat with Docs + AI Agents + MCP + 完整配置彈性,預設本地運行

---

#### 功能分析

| 功能面向        | AnythingLLM 能力                                                                                                                       | 備註                                                                                        |
| --------------- | -------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------- |
| **Agent**       | ✅ No-code AI Agent Builder + Custom AI Agents + Agent Flows (視覺化工作流) + Intelligent Skill Selection(自動選工具,減少 80% Token) | 功能最接近 MEC-AI「SKILLS」機制的 A 類平台                                                  |
| **RAG**         | ✅ **完整文件 RAG**:PDF/TXT/DOCX/多格式上傳 → 向量化 → 語意搜尋 + Source Citations;內建 Native Embedder(預設)                      | 直接解決 MEC-AI 企業文件查詢核心需求                                                        |
| **MCP**         | ✅ **Full MCP-compatibility**(官方明確標示)                                                                                           | 與 MEC-AI CAD Tools MCP Server Port 8100 架構直接相容                                       |
| **SKILLS**      | ✅ Intelligent Skill Selection(智能工具篩選)+ Custom Agent Tools + Agent Flows + Browse Web 等內建工具                                | 對應 MEC-AI SKILLS 機制,且支援插拔式自訂工具擴展                                           |
| **LLM 整合**    | ✅ 40+ LLM Providers:**Any open-source llama.cpp compatible model** 官方首位列出                                                      | 完整 OpenAI-compatible API 支援,直接對接 llama.cpp server                                  |
| **Embedder**    | ✅ AnythingLLM Native Embedder(預設,無需外部服務)+ OpenAI / Ollama / LM Studio 等                                                   | nomic-embed-text 可透過 Ollama 接入,符合 MEC-AI 768維嵌入需求                              |
| **Vector DB**   | ✅ LanceDB(內嵌預設,零配置)/ pgvector / Chroma / Qdrant / Weaviate / Milvus 等 9 種                                                 | **pgvector 直接支援**,與 MEC-AI PostgreSQL+pgvector 堆疊相容                               |
| **多模態**      | ✅ 支援 closed 和 open-source LLM 的多模態(圖片分析)                                                                                  | 支援 Qwen2.5-VL 等視覺語言模型                                                              |
| **多用戶**      | ⚠️ 多用戶 + 權限管理功能**僅 Docker 版** 提供                                                                                          | 無 Docker 的 Desktop/Bare Metal 為單用戶模式                                                |
| **前端**        | ✅ Vite + React 前端(可自訂),drag-and-drop 上傳、Source Citations UI、對話管理                                                       | 完整 Web UI,可透過 embed widget 嵌入其他頁面(Docker 版)                                  |
| **稽核日誌**    | ⚠️ 基本操作日誌;無完整企業 Audit Log(FR-05 需自行實作)                                                                              | 中等企業級功能                                                                               |
| **串流輸出**    | ✅ Streaming 回應支援(WebSocket for agent invocation,HTTP streaming for chat)                                                       | Nginx 設定文件已說明 WebSocket + streaming 需求                                             |

---

#### 部署評估(C1–C7)

| 評估準則         | 結果        | 說明                                                                                                                                                                                      |
| ---------------- | ----------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker     | ⚠️ **條件** | **三條路徑**:①Desktop App (.exe,最簡‑零配置,但功能子集:無多用戶/無嵌入 Widget)②Bare Metal(git clone + yarn + Node,完整功能,但官方聲明「不受核心團隊支援」)③Docker(官方推薦,功能最完整)|
| C2 Windows       | ✅ **符合**  | Desktop App Windows .exe 直接下載安裝;Bare Metal 需 NodeJS v18 + Yarn(Windows 可行)                                                                                                   |
| C3 llama.cpp     | ✅ **符合**  | README 支援 LLM 清單**首位**明確列出「Any open-source llama.cpp compatible model」                                                                                                        |
| C4 功能完整性    | ✅ **完整**  | RAG ✅ + MCP ✅(Full) + Agent ✅(No-code builder)+ SKILLS ✅(Intelligent Selection)+ 多模態 ✅ + pgvector ✅;A 類中功能最全面且最貼近 MEC-AI 需求結構的方案                        |
| C5 低資源消耗    | ⚠️ **條件** | Desktop App 較輕量(Electron 包裝);Bare Metal 三服務(server + collector + frontend)+ LanceDB 內嵌(無額外向量 DB 服務);2GB RAM 最低;若用 pgvector 則需 PostgreSQL                  |
| C6 存續性        | ✅ **優秀**  | 56.6k stars,202 contributors,26 releases,活躍開發(3-5 天更新),Mintplex Labs 全職商業公司支撐                                                                                        |
| C7 商用風險      | ✅ **無風險**| MIT License 全功能開源;雲端 Hosted 版(my.mintplexlabs.com)完全可選,不影響自架使用;無 EE 功能鎖定趨勢                                                                                |

---

#### MEC-AI 架構層次對應分析

| MEC-AI SA 文件需求            | AnythingLLM 對應能力                                                                      | 符合度 |
| ----------------------------- | ----------------------------------------------------------------------------------------- | ------ |
| FastAPI 後端 (Python)         | ❌ NodeJS Express 後端,無 Python 生態整合                                                 | ❌     |
| LangGraph Agent 狀態機        | ❌ 自有 Agent 框架(非 LangGraph),無狀態機圖模型                                         | ❌     |
| langchain-mcp-adapters (MCP)  | ✅ Full MCP-compatibility(實作方式不同,結果等效)                                        | ✅     |
| llama.cpp server(本地推理)  | ✅ 官方首位支援「llama.cpp compatible model」,含 OpenAI-compatible endpoint               | ✅     |
| pgvector 向量搜尋              | ✅ 原生支援 pgvector 作為 Vector DB 選項                                                   | ✅     |
| nomic-embed-text Embedding    | ✅(透過 Ollama 接入 nomic-embed-text);或使用 AnythingLLM Native Embedder(本地,768D) | ✅     |
| 文件 RAG(PDF/圖紙語意查詢)  | ✅ **核心功能**:文件上傳 → Native Embedder → 向量化 → RAG 對話                           | ✅     |
| SSE 串流(token/sources)     | ⚠️ 有 streaming,但事件格式由 AnythingLLM 自定義(非 MEC-AI SA 規格的自訂格式)           | ⚠️     |
| 多模態圖片分析(Qwen2.5-VL)  | ✅ 多模態支援已內建,可接 llama.cpp VL 模型                                                | ✅     |
| 離線內網完全隔離               | ✅ Desktop App / Bare Metal 完全本地運行,無雲端依賴                                       | ✅     |
| Windows 無 Docker 安裝        | ✅(Desktop .exe) / ⚠️(Bare Metal:yarn + node,非官方支援)                             | ⚠️     |

---

#### 關鍵決策點:「取代」vs「平行部署」

**取代 MEC-AI 架構(全棧取代)**:
- ✅ RAG + MCP + llama.cpp + 前端 UI + Agent 全功能開箱即用
- ❌ **Backend 為 NodeJS**(非 FastAPI/Python),無法直接整合 LangGraph 狀態機、Python ML 生態、Qwen2.5-VL 多模態呼叫鏈
- ❌ **多用戶权限管理需 Docker**,與 C1 OA 筆電限制衝突
- ⚠️ Bare Metal 不受官方支援,維護成本自行承擔

**與 MEC-AI 平行部署(互補方案)**:
- 可將 AnythingLLM 作為**企業文件知識庫入口**(RAG + 對話 UI),透過 MCP 或 REST API 與 MEC-AI FastAPI 後端互通
- Desktop App 模式:單用戶場景下可實現離線文件查詢,與 MEC-AI LangGraph Agent 分工互補

---

#### 與同類全棧方案對比(A 類 RAG-focused 比較)

| 比較項目        | LibreChat(方案6)| onyx(方案18)    | AnythingLLM(方案20)     |
| --------------- | ----------------- | ----------------- | ------------------------- |
| Stars           | 22k+             | 18k              | **56.6k ⭐**               |
| C1 非 Docker    | ✅                | ❌ Docker Only    | ⚠️(Desktop/Bare Metal) |
| RAG 完整性      | ⚠️ 限定         | ✅(Graph+Hybrid)| ✅(Native Embedder+多DB)|
| MCP             | ⚠️              | ✅                | ✅ **Full**               |
| llama.cpp       | ⚠️              | ✅                | ✅ **首位官方列出**        |
| pgvector        | ❌               | ✅(Vespa主導)   | ✅ **原生支援**            |
| Agent Builder   | ❌               | ✅                | ✅ **No-code**            |
| Windows Desktop | ❌               | ❌                | ✅ **.exe 直接安裝**       |
| 多用戶(非Docker)| ✅             | ❌               | ❌                        |
| NodeJS/Python   | NodeJS           | Python+TypeScript | NodeJS                    |

---

#### 總評

| 向度           | 評分(5分制)  | 說明                                                                                  |
| -------------- | -------------- | ------------------------------------------------------------------------------------- |
| 功能符合度     | ⭐⭐⭐⭐ (4/5)   | A 類中 RAG + MCP + llama.cpp + Agent 功能組合最完整,直接對應 MEC-AI 文件查詢場景    |
| 部署便利性     | ⭐⭐⭐ (3/5)    | Desktop .exe 最簡(功能子集);Bare Metal 可行但不受官方支援;Docker 功能最全        |
| 資源消耗       | ⭐⭐⭐ (3/5)    | Desktop App 輕量;Bare Metal 三服務(2GB RAM);使用 LanceDB 可省去向量 DB 額外消耗 |
| 公司存續性     | ⭐⭐⭐⭐ (4/5)   | 56.6k stars,全職商業公司,活躍開發,存續風險低                                      |
| 商用成本風險   | ⭐⭐⭐⭐⭐ (5/5)  | MIT 全功能開源,無任何商業授權風險,雲端服務完全可選                                 |
| **綜合推薦**   | ⚠️ **條件強力推薦(A 類中最接近 MEC-AI 文件查詢場景的全棧方案)**                   |                                                                                       |

**建議定位**:AnythingLLM 是 A 類評估方案中**功能組合最貼近 MEC-AI 核心需求**的全棧平台—— RAG(文件向量化+語意搜尋)+ MCP(Full compatibility)+ llama.cpp(首位官方支援)+ pgvector(原生)+ No-code Agent Builder —— 幾乎直接覆蓋 MEC-AI 的文件查詢、CAD 工具呼叫、本地 LLM 推理等核心場景。**主要障礙**:Backend 為 NodeJS(非 FastAPI/LangGraph Python 技術棧)、多用戶權限管理需 Docker、Bare Metal 無官方支援。**最優使用策略**:以 Desktop App(Windows .exe)作為**快速 POC 驗證**——讓 AnythingLLM 接入 llama.cpp(本地 Qwen2.5-VL)+ pgvector + MCP CAD Server,在無 Docker 環境下驗證核心文件查詢與 CAD 工具整合流程;若 POC 成功,再評估是否以 AnythingLLM 取代 MEC-AI 前端 UI 層,或以 REST API 橋接 MEC-AI FastAPI 後端。

---

### 方案 21:Quivr(QuivrHQ/quivr)

- **GitHub**:https://github.com/QuivrHQ/quivr
- **Stars**:39,000 ⭐(2026-03)
- **分類**:E — RAG/向量引擎(Python RAG Library,`quivr-core` pip package)
- **授權**:Apache 2.0(基礎)/ 含 Enterprise features 說明(LICENSE 更新過)
- **語言**:Python 99.3%、Shell 0.7%
- **版本**:`core: v0.0.33`(最新 release:**2025-02-04,距今 13 個月**)
- **最新 commit**:`fix: add Claude 4 support (#3645)`(**9 個月前**)
- **Contributors**:123 人
- **組織**:QuivrHQ(Stan Girard 創辦,曾獲 YCombinator 支持)
- **定位**:「Opiniated RAG for integrating GenAI in your apps」—— **純 Python 庫**(非全棧應用),提供 RAG 引擎供開發者嵌入自建應用

---

#### 重要背景說明:專案架構轉型

Quivr 歷經重大架構轉型:
- **舊版 Quivr**(2022-2024 初):全棧應用(Next.js 前端 + FastAPI + Supabase + Docker),曾是熱門 RAG Chat 應用
- **現版 quivr-core**(2024 中後期至今):將核心 RAG 能力重構為**純 Python 函式庫**(`pip install quivr-core`);舊版全棧 UI 已不在此 repo 維護
- **活躍度警示**:現版最新 release 為 Feb 2025(13月前),最新 commit 為 9 個月前,**專案進入實質停滯**

---

#### 功能分析(現版 quivr-core 函式庫)

| 功能面向        | Quivr 能力                                                                                               | 備註                                                                                    |
| --------------- | -------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------- |
| **RAG 核心**    | ✅ Opiniated RAG Workflows(YAML 配置):Filter History → Rewrite → Retrieve → Generate                  | 工作流設計清晰,可自訂節點組合                                                           |
| **Vector Store**| ✅ **FAISS**(本地嵌入,零服務依賴)+ **pgvector**(PostgreSQL 插件)                                    | 直接對應 MEC-AI pgvector 堆疊,FAISS 可作為輕量替代                                     |
| **Reranker**    | ✅ 支援 Cohere Rerank(Multi-lingual 3.0)                                                                | 需要 Cohere API Key(雲端服務),非本地                                                   |
| **LLM 整合**    | ✅ OpenAI、Anthropic、Mistral、Gemma;⚠️ **Ollama**(文件提及本地模型經由 Ollama)                        | 無直接 llama.cpp OpenAI-compatible endpoint 文件;透過 Ollama 中轉                       |
| **Embedding**   | ✅ 預設使用 LangChain Embeddings(可配置);支援 pgvector embedding                                       | 理論上可接 nomic-embed-text(需自行配置 Ollama)                                         |
| **Agent/Tools** | ⚠️ 支援 Web Search(工具整合)、Tool Use(基礎)                                                         | 非 LangGraph 多步 Agent;無完整 SKILLS 機制                                              |
| **MCP**         | ❌ 無任何 MCP 支援(無相關文件或程式碼)                                                                   | C4 MCP 項目缺失                                                                         |
| **前端 UI**     | ❌ **純 Python 函式庫,無任何前端 UI**                                                                    | 需開發者自行建立 UI(範例提供 Chainlit 整合)                                            |
| **多用戶**      | ❌ 無多用戶管理                                                                                            | 函式庫層次,無用戶認證機制                                                               |
| **文件解析**    | ✅ PDF/TXT/Markdown 等多格式;整合 Megaparse(高品質文件解析)                                            | Megaparse 為同團隊另一個 Python 庫                                                      |
| **串流輸出**    | ✅ streaming 回應基礎支援                                                                                  | 函式庫層次的 streaming generator                                                         |

---

#### 部署評估(C1–C7)

| 評估準則         | 結果        | 說明                                                                                                                                                                         |
| ---------------- | ----------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| C1 非 Docker     | ✅ **符合**  | **純 Python 函式庫**:`pip install quivr-core`,無 Docker 依賴;Python 3.10+ 唯一前置要求                                                                                    |
| C2 Windows       | ⚠️ **條件** | Python 函式庫理論上 Windows 可行;但 **FAISS Windows 安裝有已知相容性問題**(通常需要 `faiss-cpu` 預編譯包);pgvector 需 PostgreSQL 另行安裝                                |
| C3 llama.cpp     | ⚠️ **條件** | 文件提及支援 Ollama(本地模型);透過 Ollama 可接 GGUF/llama.cpp 模型;**無直接連接 llama.cpp OpenAI-compatible API 的官方文件**,需自行透過 LangChain 自訂Provider 實作    |
| C4 功能完整性    | ⚠️ **部分** | RAG ✅(含 Rerank)、pgvector ✅、FAISS ✅;**MCP ❌**(無支援)、**前端 UI ❌**(純庫)、**多頻道 ❌**、Agent 功能基礎(⚠️)                                               |
| C5 低資源消耗    | ✅ **優秀**  | 純 Python 函式庫,FAISS 本地嵌入(無額外向量 DB 服務),資源消耗極低;依 LLM 選擇決定推理資源                                                                                |
| C6 存續性        | ❌ **高風險**| **最新 release:2025-02-04(13 個月前);最新 commit:9 個月前;issues 僅 5 個(極低活躍度)**;現版 quivr-core 已實質進入維護停滯,YC 支持不代表持續開發                   |
| C7 商用風險      | ⚠️ **中風險**| Apache 2.0 基礎開源;但 LICENSE 檔案曾「Update license to include enterprise features」,存在未來 EE 商業化隱患;現階段停滯反使實際商業化不確定性更大                        |

---

#### 與 kotaemon 對比(同為 E 類 RAG 方案)

| 比較項目        | kotaemon(方案16,首選)     | Quivr(方案21)             |
| --------------- | ---------------------------- | --------------------------- |
| Stars           | 25.2k                       | 39k(但衰退中)              |
| 形態            | **完整 RAG Web UI + 後端**   | **純 Python 函式庫**         |
| 最新 release    | v0.11.2(3 weeks ago ✅)    | v0.0.33(13 months ago ❌)  |
| RAG 完整性      | ✅ Hybrid(BM25+向量)+Rerank+GraphRAG | ✅ Workflow RAG+Rerank |
| MCP             | ✅(v0.11.2 新增)           | ❌ 無                        |
| llama.cpp       | ✅ llama-cpp-python 官方      | ⚠️ Ollama 中轉               |
| pgvector        | 透過 Vector Store 配置       | ✅ 原生支援                  |
| FAISS           | ✅ 支援                      | ✅ 原生(預設)               |
| 前端 UI         | ✅ Gradio Web UI             | ❌ 無(純庫)                 |
| Windows         | ⚠️(bash 腳本,手動 pip)    | ⚠️(FAISS 安裝問題)         |
| 存續性          | ✅ 持續活躍                  | ❌ 實質停滯                  |

---

#### MEC-AI 整合評估

**作為 E 類 RAG 函式庫嵌入 MEC-AI**:
- ✅ Python 生態:與 MEC-AI FastAPI + LangGraph 技術棧相容(同 Python 環境)
- ✅ pgvector 直接支援:與 MEC-AI PostgreSQL 16 + pgvector 堆疊完整對應
- ✅ FAISS 備用:若不想依賴 pgvector 可用 FAISS 作為本地向量 DB
- ❌ MCP 缺失:無法直接接入 CAD MCP Server(需要 MEC-AI 自行橋接)
- ❌ C6 停滯風險:引入一個已停滯的依賴庫,長期維護風險極高
- ⚠️ llama.cpp 支援需要透過 Ollama 中轉或自行實作 LangChain Provider

---

#### 總評

| 向度           | 評分(5分制)  | 說明                                                                              |
| -------------- | -------------- | --------------------------------------------------------------------------------- |
| 功能符合度     | ⭐⭐⭐ (3/5)    | RAG + pgvector + FAISS 核心強,但無 MCP / 無前端 UI / 無多用戶                   |
| 部署便利性     | ⭐⭐⭐⭐ (4/5)   | pip install 最簡,但 FAISS Windows 需要關注,pgvector 需 PostgreSQL           |
| 資源消耗       | ⭐⭐⭐⭐⭐ (5/5)  | 純 Python 函式庫 + FAISS 本地嵌入,資源消耗極低                                  |
| 公司存續性     | ⭐ (1/5)       | **最新 commit 9 個月前、release 13 個月前,專案實質停滯,存續風險最高**          |
| 商用成本風險   | ⭐⭐⭐ (3/5)    | Apache 2.0 基礎開源,但 EE 分層隱患 + 停滯狀態帶來不確定性                      |
| **綜合推薦**   | ❌ **不建議引入(C6 停滯風險根本性否決)**                                        |                                                                                   |

**建議定位**:quivr-core 的 RAG 函式庫設計思路(Python native + YAML workflow + pgvector/FAISS)與 MEC-AI 技術棧高度相容,是 E 類中**技術架構相容性最好的 Python 庫選項**。然而,**C6 存續性問題是根本性否決項目**:最新 release 停留在 2025 年 2 月(距今 13 個月),最新 commit 為 9 個月前,專案活躍度幾近歸零(僅 5 個 open issues)。引入一個實質停滯的 RAG 庫作為 MEC-AI 核心依賴,將導致長期安全漏洞累積、Python 版本不相容、LLM API 變更後無人維護等高風險情境。**建議優先選用同樣 Python 生態但持續活躍的 kotaemon(E 類首選)**,或直接使用 LangChain/LlamaIndex 的 pgvector 整合作為 MEC-AI RAG 層實作。
 







Login to like - 0 Likes



Comments...


No Comments Yet...



Add Comment...



shumin

A graduated biotechnology engineer. Now is a software engineer


Latest Posts



Footer with Icons