# GitHub 開源專案評估報告:企業內網 AI Agent 系統架構替代方案
> **評估日期**:2026-03-26
> **評估基準**:AI_Agent系統_SA文件.md v2(2026-03-06)
> **目標環境**:完全離線內網、Windows 11 OA 筆電、遠端 PostgreSQL/pgvector 向量資料庫
---
## 一、SA 文件現有架構摘要
| 層級 | 元件 | 技術棧 |
|------|------|--------|
| 前端 | React SPA | React 18 + TypeScript + Vite + TailwindCSS + shadcn/ui |
| 後端 | FastAPI 服務 | Python 3.11 + FastAPI + LangGraph 0.3+ + LangChain 0.3+ |
| 推論 | llama.cpp server | Qwen2.5-VL 7B (GGUF) + nomic-embed-text |
| 工具 | MCP Servers | CAD Tools MCP Server (port 8100) + MCP SDK |
| 本地儲存 | SQLite | 對話、訊息、稽核日誌、LangGraph checkpoints |
| 遠端儲存 | PostgreSQL 16 + pgvector 0.7+ | 文件、向量 chunks、批次匯入任務 |
**核心能力**:意圖分類(cad_tool/rag/vision/general)、多層 RAG(Standard/Pre-retrieval/Post-retrieval Rerank/Contextual Compression/Self-RAG/GraphRAG)、MCP 工具調用、多模態視覺分析、Token 預算管理、SSE 串流、批次文件匯入。
---
## 二、十項評估準則
| # | 準則 | 權重 | 說明 |
|---|------|------|------|
| C1 | Docker 作為最後手段 | 高 | 目標環境為 OA 筆電,不應依賴 Docker |
| C2 | Windows 原生支援 | 高 | 必須能直接在 Windows 11 上運行 |
| C3 | llama.cpp 支援 | 高 | 必須能載入 GGUF 模型進行離線推論 |
| C4 | RAG/MCP/Skills Agent 能力 | 高 | 核心功能需齊全 |
| C5 | 低資源消耗 | 中 | 目標為 OA 繪圖筆電,需共存其他應用 |
| C6 | 公司/社群持續性 | 中 | 專案是否有穩定維護團隊 |
| C7 | 未來商業化風險 | 中 | 授權是否可能轉為限制性或閉源 |
| C8 | 基本 Agent 能力 | 高 | 檔案讀寫、Shell 執行等基礎工具 |
| C9 | 向量資料庫外掛對接 | 中 | 是否容易替換/新增 pgvector 等 |
| C10 | Skills 擴充容易度 | 中 | 是否有插件/Skills 機制 |
---
## 三、專案分類總覽
### A 類:全功能 AI Chat 平台(含 RAG + Agent + UI)
| 專案 | Stars | 語言 | 授權 | 活躍度 |
|------|-------|------|------|--------|
| AnythingLLM | 56.7k | JavaScript (98%) | MIT | ⭐⭐⭐⭐⭐ |
| Jan | 41.2k | TypeScript/Rust (Tauri) | Apache 2.0 | ⭐⭐⭐⭐⭐ |
| LibreChat | 35k | JavaScript | MIT | ⭐⭐⭐⭐⭐ |
| Onyx | 18k | Python 63% + TypeScript 31% | MIT(CE)/商業(EE) | ⭐⭐⭐⭐⭐ |
| Kotaemon | 25.2k | Python (Gradio) | Apache 2.0 | ⭐⭐⭐⭐ |
| GPT4All | 77.2k | C++/QML | MIT | ⭐⭐(10個月未更新) |
### B 類:個人 AI 助手平台(多頻道 Gateway + Agent + Skills)
| 專案 | Stars | 語言 | 授權 | 活躍度 |
|------|-------|------|------|--------|
| OpenClaw | 336k | TypeScript (89%) | MIT | ⭐⭐⭐⭐⭐ |
| Nanobot | 36.3k | Python (98%) | MIT | ⭐⭐⭐⭐⭐ |
| NanoClaw | 25.5k | TypeScript (94%) | MIT | ⭐⭐⭐⭐⭐ |
| PicoClaw | 26.2k | Go (89%) | MIT | ⭐⭐⭐⭐⭐ |
| ZeroClaw | 28.8k | Rust (94%) | MIT + Apache 2.0 | ⭐⭐⭐⭐⭐ |
| IronClaw | 10.9k | Rust (91%) | MIT + Apache 2.0 | ⭐⭐⭐⭐⭐ |
### C 類:AI 工作流/Agent 框架/SDK
| 專案 | Stars | 語言 | 授權 | 活躍度 |
|------|-------|------|------|--------|
| Langflow | 146k | Python + TypeScript | MIT | ⭐⭐⭐⭐⭐ |
| Deep Agents | 17.5k | Python (99%) | MIT | ⭐⭐⭐⭐⭐ |
| Quivr | 39.1k | Python | Apache 2.0 | ⭐⭐(9個月未更新) |
### D 類:編碼 Agent / IDE 工具
| 專案 | Stars | 語言 | 授權 | 活躍度 |
|------|-------|------|------|--------|
| OpenCode | 130k | TypeScript (56%) | MIT | ⭐⭐⭐⭐⭐ |
| Cline | 59.4k | TypeScript | Apache 2.0 | ⭐⭐⭐⭐⭐ |
| Aider | 42.4k | Python | Apache 2.0 | ⭐⭐⭐⭐⭐ |
| OpenWork | 12.5k | TypeScript (79%) + Rust | MIT | ⭐⭐⭐⭐⭐ |
### E 類:不適用/非 Agent 框架
| 專案 | Stars | 原因 |
|------|-------|------|
| Budibase | 27.8k | 低代碼內部工具平台,非 AI Agent 框架 |
| LM Studio CLI | 4.4k | 僅為 LM Studio 桌面應用的 CLI,非獨立方案 |
---
## 四、逐項評估矩陣
### 評分標準
- ✅ 完全符合 / 原生支援
- ⚠️ 部分符合 / 需額外配置
- ❌ 不符合 / 不支援
- N/A 不適用
### A 類:全功能 AI Chat 平台
| 準則 | AnythingLLM | Jan | LibreChat | Onyx | Kotaemon | GPT4All |
|------|-------------|-----|-----------|------|----------|---------|
| C1 不需Docker | ✅ 桌面應用+Bare Metal | ✅ Tauri桌面應用 | ❌ 主要Docker部署 | ❌ Docker/K8s為主 | ⚠️ pip install可用 | ✅ 桌面安裝包 |
| C2 Windows | ✅ 桌面安裝包 | ✅ 桌面安裝包 | ⚠️ Docker on Win | ⚠️ Docker on Win | ⚠️ pip可用 | ✅ 桌面安裝包 |
| C3 llama.cpp | ✅ 內建支援GGUF | ✅ 內建llama.cpp | ❌ 需外接Ollama | ⚠️ 需Ollama/vLLM | ✅ llama-cpp-python | ✅ 內建llama.cpp |
| C4 RAG/MCP/Skills | ✅ 全部具備 | ⚠️ MCP✅ RAG❌ Skills❌ | ✅ Agent+MCP+RAG | ✅ RAG+MCP+Agent | ✅ RAG+MCP+GraphRAG | ⚠️ RAG(LocalDocs)僅 |
| C5 低資源 | ⚠️ NodeJS中等 | ✅ Tauri輕量 | ⚠️ Docker較重 | ❌ Docker多容器 | ⚠️ Python中等 | ✅ C++後端輕量 |
| C6 社群持續性 | ✅ Mintplex Labs | ✅ Jan AI公司 | ✅ 364貢獻者 | ✅ Onyx公司 | ⚠️ 46貢獻者 | ⚠️ Nomic AI(較不活躍) |
| C7 商業化風險 | ⚠️ MIT+Hosted方案 | ✅ Apache低風險 | ✅ MIT | ⚠️ EE版本收費 | ✅ Apache低風險 | ✅ MIT |
| C8 基本Agent能力 | ✅ Agent可執行程式碼 | ❌ 純對話為主 | ✅ Code Interpreter | ✅ Code Interpreter | ⚠️ 主要RAG查詢 | ❌ 純對話為主 |
| C9 向量DB外掛 | ✅ 8+向量DB含PGVector | ❌ 無向量DB支援 | ⚠️ 需RAG API擴充 | ✅ 內建向量搜索 | ✅ 多向量DB支援 | ❌ 僅內建機制 |
| C10 Skills擴充 | ✅ MCP+Custom Agent | ⚠️ MCP支援 | ✅ MCP+Plugin | ✅ MCP+Connectors | ✅ MCP Tools | ❌ 無插件機制 |
### B 類:個人 AI 助手平台
| 準則 | OpenClaw | Nanobot | NanoClaw | PicoClaw | ZeroClaw | IronClaw |
|------|----------|---------|----------|----------|----------|----------|
| C1 不需Docker | ⚠️ npm全域安裝 | ✅ pip install | ❌ 需Docker容器 | ✅ 單一二進制 | ✅ 單一二進制 | ⚠️ 需PostgreSQL |
| C2 Windows | ⚠️ WSL2 | ⚠️ 理論可行 | ⚠️ WSL2 | ✅ .exe二進制 | ✅ .exe二進制 | ✅ Windows安裝包 |
| C3 llama.cpp | ❌ 依賴雲端API | ⚠️ Ollama/vLLM間接支援 | ❌ Claude SDK為主 | ⚠️ Ollama/vLLM間接 | ❌ 依賴雲端API | ⚠️ Ollama/vLLM間接 |
| C4 RAG/MCP/Skills | ⚠️ MCP✅ Skills✅ RAG❌ | ⚠️ MCP✅ Skills無 RAG❌ | ⚠️ Skills✅ RAG❌ MCP❌ | ✅ MCP✅ Skills✅ RAG❌ | ✅ MCP✅ Skills✅ RAG❌ | ✅ MCP✅ Memory✅ RAG(hybrid) |
| C5 低資源 | ⚠️ NodeJS ~1GB | ⚠️ Python ~100MB | ⚠️ NodeJS+Docker | ✅ <10MB Go | ✅ <5MB Rust | ✅ Rust輕量 |
| C6 社群持續性 | ✅ 336k⭐ 1319貢獻者 | ✅ 36k⭐ 177貢獻者 | ✅ 25.5k⭐ 活躍 | ✅ Sipeed公司 26k⭐ | ⚠️ 學生團隊 29k⭐ | ⚠️ NearAI 11k⭐ |
| C7 商業化風險 | ✅ MIT | ✅ MIT | ✅ MIT | ✅ MIT | ✅ MIT+Apache | ✅ MIT+Apache |
| C8 基本Agent能力 | ✅ Shell+File+Browser | ✅ Shell+File+Web | ✅ Shell+File(容器內) | ✅ Shell+File+Web | ✅ Shell+File+Git+70+工具 | ✅ Shell+File+WASM |
| C9 向量DB外掛 | ❌ 無向量DB | ❌ 無向量DB | ❌ 無向量DB | ❌ 無向量DB | ❌ 無向量DB(SQLite memory) | ✅ PostgreSQL+pgvector |
| C10 Skills擴充 | ✅ Skills資料夾+ClawHub | ⚠️ MCP擴充 | ✅ Claude Code Skills | ✅ Skills+ClawHub | ✅ Skills+Git安裝 | ✅ WASM Plugin+MCP |
### C 類:AI 工作流/Agent 框架
| 準則 | Langflow | Deep Agents | Quivr |
|------|----------|-------------|-------|
| C1 不需Docker | ✅ pip install+桌面應用 | ✅ pip install | ✅ pip install |
| C2 Windows | ✅ 桌面安裝包 | ⚠️ 理論可行 | ⚠️ Python可行 |
| C3 llama.cpp | ⚠️ 需外接Ollama | ❌ 依賴雲端API | ⚠️ 需外接Ollama |
| C4 RAG/MCP/Skills | ✅ 全部具備(視覺化) | ⚠️ MCP(adapters)+工具 無RAG | ✅ RAG專精+PGVector |
| C5 低資源 | ⚠️ Python較重 | ✅ Python輕量SDK | ✅ Python輕量 |
| C6 社群持續性 | ✅ DataStax支持 146k⭐ | ✅ LangChain官方 17.5k⭐ | ⚠️ 9個月未更新 |
| C7 商業化風險 | ⚠️ DataStax商業公司 | ✅ MIT + LangChain生態 | ⚠️ YC投資可能轉向 |
| C8 基本Agent能力 | ✅ 可配置任意工具鏈 | ✅ File+Shell+SubAgent | ⚠️ 僅RAG查詢 |
| C9 向量DB外掛 | ✅ 支援所有主流向量DB | ⚠️ 透過LangGraph | ✅ PGVector+Faiss |
| C10 Skills擴充 | ✅ 組件市場+MCP | ✅ 自訂工具+MCP | ❌ 內建RAG工作流 |
### D 類:編碼 Agent(僅供參考,定位不同)
| 準則 | OpenCode | Cline | Aider | OpenWork |
|------|----------|-------|-------|----------|
| C1 不需Docker | ✅ npm安裝+桌面應用 | ✅ VS Code擴充 | ✅ pip install | ⚠️ 需Rust+Node |
| C2 Windows | ✅ 桌面.exe | ✅ VS Code | ✅ Python | ✅ Tauri桌面 |
| C3 llama.cpp | ❌ 雲端API為主 | ⚠️ OpenAI相容端點 | ⚠️ 支援本地LLM | ❌ 需OpenCode |
| C4 RAG/MCP/Skills | ⚠️ 編碼為主,無RAG | ⚠️ MCP✅ 無RAG | ❌ 僅程式碼編輯 | ⚠️ Skills✅ 無RAG |
| 適用性 | 編碼專用 | IDE擴充 | 終端配對編程 | 編碼桌面應用 |
---
## 五、分類替代可行性評估
### 5.1 可直接替代「後端 + 前端 + Agent」的方案
#### 🏆 第一推薦:AnythingLLM
**替代範圍**:可替代 SA 文件中的 前端(React) + 後端(FastAPI) + Agent + 向量DB整合
| 優勢 | 劣勢 |
|------|------|
| ✅ Windows 桌面安裝包,無需 Docker | ⚠️ NodeJS 架構,非 Python 生態 |
| ✅ 內建 llama.cpp 相容模型載入 | ⚠️ 自訂 LangGraph 工作流需額外開發 |
| ✅ 內建 RAG + 8 種向量 DB(含 PGVector) | ⚠️ 自訂意圖分類需二次開發 |
| ✅ Full MCP 支援 | ⚠️ JavaScript 生態,與 Python MCP Server 需橋接 |
| ✅ 自訂 AI Agent + 技能選擇 | |
| ✅ 文件匯入管線(PDF、TXT、DOCX 等)| |
| ✅ MIT 授權 | |
| ✅ 56.7k Stars,205 貢獻者,極度活躍 | |
**可行架構**:
```
AnythingLLM Desktop (Windows)
├── 前端 UI(內建)
├── Agent Runtime(內建,含 MCP)
├── llama.cpp 相容模型(Qwen2.5-VL GGUF)
├── Embedder(Built-in 或 Ollama)
├── 向量 DB → 外接 PGVector(遠端 PostgreSQL)
└── MCP Server → CAD Tools MCP Server(獨立 Python 進程)
```
**評估分數**:88/100
---
#### 🥈 第二推薦:Kotaemon
**替代範圍**:可替代 後端 + RAG 引擎 + 部分前端
| 優勢 | 劣勢 |
|------|------|
| ✅ Python 原生,與 SA 技術棧一致 | ⚠️ Gradio UI,非 React |
| ✅ llama-cpp-python 原生支援 | ⚠️ Agent 能力較弱(主要 RAG) |
| ✅ GraphRAG(Nano/Light/MS)| ⚠️ 46 貢獻者,社群較小 |
| ✅ MCP Tools 支援 | ⚠️ 需額外開發意圖分類 |
| ✅ Hybrid RAG(全文 + 向量)| |
| ✅ 多模態 QA | |
| ✅ pip install,無需 Docker | |
| ✅ Apache 2.0 | |
**可行架構**:
```
Kotaemon (pip install)
├── Gradio UI
├── RAG Engine(Hybrid + GraphRAG)
├── llama-cpp-python(Qwen2.5-VL GGUF)
├── 向量 DB → PGVector(遠端)
├── MCP → CAD Tools MCP Server
└── 需自行補充: 意圖分類、Shell/File Agent 能力
```
**評估分數**:75/100
---
#### 🥉 第三推薦:Jan + 自建後端
**替代範圍**:可替代 推論引擎 + 對話 UI
| 優勢 | 劣勢 |
|------|------|
| ✅ Tauri 桌面應用,極輕量 | ❌ 無 RAG / 向量 DB |
| ✅ 內建 llama.cpp | ❌ 需另建 FastAPI 後端處理 RAG |
| ✅ MCP 支援 | ⚠️ 無 Agent 框架 |
| ✅ OpenAI 相容 API(localhost:1337)| ⚠️ 只替代推論層 |
| ✅ Apache 2.0,41.2k Stars | |
**可行架構**:
```
Jan Desktop (Windows) ← 推論引擎 + UI
↕ OpenAI API (localhost:1337)
FastAPI 後端(自建)← SA 文件中的 Agent + RAG 邏輯
├── LangGraph/LangChain Agent
├── RAG Pipeline
├── PGVector(遠端)
└── MCP → CAD Tools
```
**評估分數**:65/100(需大量自建,但推論層可複用 Jan)
---
### 5.2 可替代「Agent 框架/SDK」的方案
#### Deep Agents(LangChain 官方)
**替代範圍**:可替代 SA 文件中的 Agent Runtime(LangGraph 部分)
| 評估 | 說明 |
|------|------|
| 定位 | LangChain/LangGraph 原生 Agent Harness,正是 SA 文件使用的技術棧 |
| 優勢 | 內建 Planning、File I/O、Shell、Sub-Agent;100% 開源 MIT;直接返回 LangGraph Graph |
| 劣勢 | 無內建 UI、無 RAG pipeline、無 llama.cpp(需自行接模型) |
| 適用性 | 若保留 SA 架構的「自建前端 + 自建 FastAPI 後端」,可用 Deep Agents 替代自製 Agent loop |
**評估分數**:70/100(作為 SDK 層替代,需搭配其他方案)
#### Langflow
**替代範圍**:可替代 Agent 工作流設計 + RAG pipeline
| 評估 | 說明 |
|------|------|
| 定位 | DataStax 支持的視覺化 AI 工作流建構器 |
| 優勢 | 視覺化拖拉編排、支援所有主流 LLM/向量 DB/MCP、Windows 桌面應用、pip install |
| 劣勢 | Python 較重、DataStax 商業背景可能影響方向、自訂複雜邏輯需轉換為 Langflow 組件 |
| 適用性 | 適合快速原型,但企業內網全離線部署需驗證 |
**評估分數**:72/100
---
### 5.3 可替代「推論引擎」的方案
| 方案 | 說明 | 備註 |
|------|------|------|
| **GPT4All** | C++ llama.cpp 後端、Windows 桌面安裝、LocalDocs RAG | 10 個月未更新,風險高 |
| **Jan** | Tauri + llama.cpp、OpenAI API 相容 | 最佳推論替代方案 |
| **SA 原方案(llama.cpp server)** | 直接使用 llama.cpp server | 最穩定、最輕量 |
---
### 5.4 個人 AI 助手平台(B 類)——不建議作為企業方案
| 專案 | 不建議原因 |
|------|-----------|
| OpenClaw | 需 WSL2;無 RAG/向量 DB;純聊天頻道路由器;336k Stars 但面向個人非企業 |
| Nanobot | Python 但無 RAG 能力;主要是多頻道 chatbot wrapper |
| NanoClaw | 需 Docker 容器隔離;無 RAG;Claude SDK 綁定 |
| PicoClaw | Go 語言超輕量但無 RAG/向量 DB;技術棧不相容 |
| ZeroClaw | Rust 超輕量但無 RAG/向量 DB;學生團隊穩定性存疑 |
| IronClaw | 需 PostgreSQL+pgvector,有 hybrid search **最接近**,但 Rust 生態與 SA Python 棧不相容 |
> **例外**:IronClaw 是 B 類中唯一具備向量搜索(pgvector)的專案,且有 WASM 插件機制和 MCP 支援。若團隊接受 Rust 技術棧轉換,值得深入評估。
---
### 5.5 編碼 Agent(D 類)——非目標用途
OpenCode、Cline、Aider、OpenWork 皆專注於程式碼生成/編輯的 AI 助手,與 SA 文件的「CAD 知識問答系統」定位完全不同,**不建議**作為替代方案。
---
## 六、綜合排名與建議
### 6.1 總體排名(依替代可行性)
| 排名 | 專案 | 分數 | 替代策略 | 技術風險 |
|------|------|------|---------|---------|
| 1 | **AnythingLLM** | 88 | 替代全棧(前端+後端+Agent+向量DB) | 低:成熟桌面應用 |
| 2 | **Kotaemon** | 75 | 替代後端RAG引擎 + 部分Agent | 中:需補充Agent能力 |
| 3 | **Langflow** | 72 | 替代Agent工作流,搭配自建元件 | 中:DataStax依賴 |
| 4 | **Deep Agents** | 70 | 替代Agent SDK層(LangGraph原生) | 低:技術棧完全相容 |
| 5 | **Jan** | 65 | 替代推論引擎+對話UI | 低:但需大量自建 |
| 6 | **IronClaw** | 62 | 全棧替代(Rust棧) | 高:技術棧轉換 |
| 7 | **Onyx** | 58 | 全棧替代 | 高:Docker強依賴 |
| 8 | **LibreChat** | 55 | 全棧替代 | 高:Docker+MongoDB |
### 6.2 推薦實施路徑
#### 路徑 A:最小改動(推薦)
**保留 SA 架構,引入 Deep Agents 優化 Agent Loop**
```
React 前端(SA 原設計)
↕ REST/SSE
FastAPI 後端(SA 原設計)
├── Deep Agents Agent(替代自建 LangGraph Agent Loop)
├── SA RAG Pipeline(保留)
├── llama.cpp server(保留)
├── PGVector(保留)
└── MCP CAD Tools(保留)
```
- 改動量:10%(僅替換 Agent Loop 實作)
- 風險:極低
- 收益:獲得成熟的計劃/子代理/上下文管理能力
#### 路徑 B:中等改動
**以 AnythingLLM 替代前端+後端,保留 MCP Server**
```
AnythingLLM Desktop(替代前端+後端+Agent)
├── 內建 llama.cpp 模型載入
├── 內建 RAG → 外接 PGVector
├── MCP → CAD Tools MCP Server(Python 獨立進程,保留)
└── Custom Agent Skills
```
- 改動量:60%(前端+後端汰換)
- 風險:中(需驗證 GGUF 多模態模型支援度、PGVector 連線穩定度)
- 收益:大幅減少自建程式碼量,獲得成熟 UI/UX
#### 路徑 C:RAG 專精替代
**以 Kotaemon 替代 RAG Pipeline,保留其他架構**
```
React 前端(SA 原設計或 Kotaemon Gradio)
↕
Kotaemon RAG Engine
├── llama-cpp-python(Qwen2.5-VL)
├── GraphRAG + Hybrid Search
├── PGVector(遠端)
└── MCP → CAD Tools
自建 Agent 補充層(意圖分類、Shell/File 工具)
```
- 改動量:40%(RAG 引擎替換)
- 風險:中低
- 收益:獲得更強大的 RAG 能力(GraphRAG、Hybrid Search)
---
## 七、關鍵風險提醒
| 風險 | 說明 | 緩解措施 |
|------|------|---------|
| **離線部署** | 多數專案假設有網路連線(npm install, pip install) | 需預打包所有依賴為離線安裝包 |
| **GGUF 多模態** | 並非所有方案都測試過 Qwen2.5-VL 7B GGUF 的視覺能力 | 需 PoC 驗證多模態推論 |
| **PGVector 遠端** | 桌面應用通常假設本地向量 DB | 需驗證遠端 PostgreSQL 連線延遲和穩定性 |
| **Windows 原生** | 許多方案的 Windows 支援為「WSL2」而非原生 | 優先選擇有 .exe 或桌面安裝包的方案 |
| **社群可持續性** | 部分專案(GPT4All、Quivr)已顯著停滯 | 避免選擇不活躍的專案 |
| **授權風險** | DataStax(Langflow)、Onyx(EE) 有商業化傾向 | 優先選擇純 MIT/Apache 2.0 且無 EE 版本的專案 |
---
## 八、結論
1. **若目標是減少自建程式碼量**:選擇 **AnythingLLM**(路徑 B),它是唯一同時具備 Windows 桌面安裝、llama.cpp、RAG、MCP、PGVector、Agent 的全功能方案。
2. **若目標是保持架構控制力**:保留 SA 架構,僅引入 **Deep Agents** 優化 Agent Loop(路徑 A),技術風險最低且與現有 LangGraph/LangChain 棧完全相容。
3. **若 RAG 是最關鍵需求**:引入 **Kotaemon** 替代 RAG Pipeline(路徑 C),獲得 GraphRAG + Hybrid Search + 多模態 QA 等進階能力。
4. **不建議**貿然採用 B 類個人助手平台(OpenClaw 系列),它們的定位是「多頻道聊天機器人」而非「企業知識問答系統」,且普遍缺乏 RAG/向量資料庫能力。
5. **不建議**採用 D 類編碼工具(OpenCode、Cline 等),定位完全不吻合。
> **最終建議**:採用 **路徑 A**(最小改動)作為第一期,SA 文件架構已相當完善。待系統穩定運行後,可在第二期評估 **路徑 B**(AnythingLLM)或 **路徑 C**(Kotaemon)以簡化維護成本。
Comments...
No Comments Yet...