Personal Contents
1. 個人工作業務說明
工作、業務內容 (人力\專案 比例 )
請將你個人覺得最重要、貢獻度大的排在前面
報告簡潔清楚,並說明自己負責的重點工作
請不要流水紀錄
表格
項次, 工作分類, 專案, 成果項目/實做功能/other, 內容說明, 效益, 開始, 結束, 人力%, 角色
2. 個人具體成果報告
範例
具體成果報告 (請用 圖表、數字 說明 KPI)
負責內容: 工作職掌,系統維護&優化&升級
負責百分比: 90%
專案執行時間: 2025/7/5~2025/7/31
專案狀態進度: 8/1完成上線
KPI: 目標: License 定期更新, 系統和License 管理器升級
3. 下半年發展及學習計畫 (目標 & KPI)
日期 分類 專案 完成% 主要階段 本週重點項目 下週重點項目
2026/3/16 生成式AI 進行中 1. AI Agent SA文件 1. AI Agent 開發
2026/3/9 生成式AI 進行中 1. AI Agent SA文件 1. AI Agent SA文件
2026/3/2 生成式AI 進行中 "1. AI Agent SA文件
2. 繼續優化自動化流程" "1. AI Agent SA文件
2. 繼續優化自動化流程"
"2026/02/23
(第8周)" 生成式AI 進行中 "1. AI Agent解決方案相關評估,survey較新的agent作法
2. 繼續優化自動化流程" "1. AI Agent解決方案相關評估,survey較新的agent作法
2. 繼續優化自動化流程"
"2026/02/09
(第6周)" 生成式AI 進行中 "1. AI Agent解決方案相關評估
2. 繼續優化自動化流程" "1. AI Agent解決方案相關評估
2. 繼續優化自動化流程"
"2026/02/02
(第5周)" 生成式AI 進行中 "1. AI Agent解決方案相關評估
3. 繼續優化自動化流程" "1. AI Agent解決方案相關評估
3. 繼續優化自動化流程"
"2026/01/26
(第4周)" 生成式AI 進行中 "1. RAG相關技術評估與測試
2. 參加投資抵減會議
3. 繼續優化自動化流程" 1. AI Agent解決方案相關評估
"2026/01/19
(第3周)" 生成式AI 進行中 "1. Copilot分享 自動化流程
2. Foundry-Local安裝測試
3. 搜尋整理RAG相關討論
" 1. 測試RAG
"2026/01/12
(第2周)" 生成式AI 進行中 "1. 收集整理微調成功案例
2. 測試通用推論式資料集增加到 50000 筆資料
3. 優化自動化流程
" "1. 優化自動化流程
2. 優化微調流程
3. 測試RAG"
"2026/01/04
(第1周)" 生成式AI 進行中 "1. 更新模型供測試
2. 資料集自動化流程
" "1. 優化自動化流程
2. 測試限制模型回答
3. 優化微調流程
4. 測試RAG" "更新模型供測試; 100%
模型: model - 檔案 - MID Management System
Qwen3-0.6B (機構文件 + 推論式資料集 + MCP工具選用)
測試用資料: data - 檔案 - MID Management System
資料集自動化流程: 60%
優化 data_import_spec.md 的步驟與條件
data_import_spec.md: http://172.18.212.48:180/ai-gen/llm-mec/-/blob/main/automatic/data_import_spec.md?ref_type=heads
改善copilot不按照步驟、幻覺、超過token限制的現象 or 改用程式處理
優化分頁邏輯(基於內容結構分析)
優化問答的關聯性
測試限制模型回答: 60%
比較提示工程或拒答資料集訓練,兩種限制模型回答領域外問題的方式
已訓練模型,待評估
資料集自動化流程導入後的微調流程: 0%
微調訓練:根據資料增加調整參數
評估:簡化評估
測試RAG: 0%"
"2025/12/29
(第53周)" 生成式AI 進行中 "1. 比較Qwen-0.6B跟較大的模型(1B, 1.5B, 1.7B)
" "1. 繼續完善模型調用MCP工具的架構
2. 設計資料萃取自動化的系統架構" "
比較Qwen-0.6B跟較大的模型(1B, 1.5B, 1.7B) - 100%
+多輪資料集+MCP資料集後Qwen3-0.6B的效果較好
Qwen3-1.7B MCP工具的泛化能力較好,但機構文件能力在加MCP instruction的情境下,受影響較多
Gemma-3-1b-it 跟 DeepSeek-R1-Distill-Qwen-1.5B機構文件跟MCP工具選用的準確率差
測試模型調用MCP工具的機制: 100%
參考: https://github.com/modelcontextprotocol/python-sdk/blob/main/examples/clients/simple-task-interactive-client/mcp_simple_task_interactive_client/main.py
機制:模型根據prompt選用工具,程式再根據所選的工具去執行
已測試的工具: mcp-server-mysql, markitdown, ...
Qwen3-0.6B原始模型能選用工具,模型微調時加入MCP工具集能夠選用工具(SQL部分需要使用者打出完整SQL)
設計資料萃取自動化的系統架構: 80%
建立文件匯入規格 - copilot依照規格執行
文件解析 - markitdown-mcp server 轉換文件成markdown格式並分頁
設計資料進db的處理方式 - mcp-server-mysql 匯入,多文件匯入會不穩定
後端資料庫schema - 已建立資料庫於 .49
資料匯出/存入(問答資料存入) - 已測試資料匯入跟問答資料存入
模型訓練流程 - 按照之前的流程
模型匯出 - 按照之前的流程"
"2025/12/22
(第52周)" 生成式AI 進行中 "1. 比較Qwen-0.6B跟較大的模型(gemma-3-1b-it)
2. 增加多輪對話的資料集數量
3. 加入MCP資料集
" "1. 繼續完善模型調用MCP工具的架構
2. 設計資料萃取自動化的系統架構"
"2025/12/15
(第51周)" 生成式AI 進行中 "1. 測試機構文件跟推論式資料集的比例
2. 測試機構文件問答的不同設計
3. 測試模型調用MCP工具的機制
" "1. 繼續完善模型調用MCP工具的架構
2. 設計資料萃取自動化的系統架構"
"2025/12/08
(第50周)" 生成式AI 進行中 "1. 測試模型調用MCP工具的機制
2. LoRA微調加入推論式資料集(Qwen3-0.6B)
3. 以第2點方式取代讓模型能回答深度思考的問題跟答案
" "1. 繼續完善模型調用MCP工具的架構
2. 設計資料萃取自動化的系統架構" "測試模型調用MCP工具的機制: 30%
參考: https://developer.aliyun.com/article/1664254
機制:模型根據prompt選用工具,程式再根據所選的工具去執行
Qwen3-0.6B原始模型能選用工具,模型微調後不能選用工具
測試別人用推論式資料集微調的Qwen3-0.6B,可以選用工具,正確率較原始模型低
繼續完善模型調用MCP工具的架構
繼續測試其他MCP工具(mcp-server-mysql, markitdown, ...)
LoRA微調加入推論式資料集: 50%
選用Qwen3-0.6B以機構文件訓練
模型加入推論式資料集微調後,有了推論能力
推論式資料集:
twinkle-ai/tw-reasoning-instruct-50k
twinkle-ai/tw-math-reasoning-2k
設計資料萃取自動化的系統架構: 80%
建立文件匯入規格 - copilot依照規格執行
文件解析 - markitdown-mcp server 轉換文件成markdown格式並分頁
設計資料進db的處理方式 - mcp-server-mysql 匯入,多文件匯入會不穩定
後端資料庫schema - 已建立資料庫於 .49
資料匯出/存入(問答資料存入) - 已測試資料匯入跟問答資料存入
模型訓練流程 - 按照之前的流程
模型匯出 - 按照之前的流程
機構文件微調資料為封閉式問答,難透過WizardLM方式改善,改以第2點推論式資料集解決
讓模型能回答深度思考的問題跟答案: 20%
已測試 WizardLM 中對問答增加廣度與深度的方法,
參考: https://github.com/nlpxucan/WizardLM
讓模型能回答需要組合的問題跟答案: 70%
已根據目前的資料建立隨機組合的問答並訓練模型,總訓練時間約 6.5 小時
提升多輪問答的準確率,但仍然有回答錯誤的可能
參考: https://github.com/microsoft/lost_in_conversation
參考: https://www.together.ai/blog/fine-tuning-llms-for-multi-turn-conversations-a-technical-deep-dive"
"2025/12/01
(第49周)" 生成式AI 進行中 "1. LoRA微調(unsloth套件測試, Qwen3-0.6B)
2. 全微調 + 經驗回放
3. LLaMA-Factory
4. 設計資料萃取自動化的系統架構
" 1. 讓模型能回答深度思考的問題跟答案
"2025/11/24
(第48周)" 生成式AI 進行中 "1. LoRA微調
2. 全微調 + 經驗回放
3. LLaMA-Factory
4. 設計資料萃取自動化的系統架構
" 1. 讓模型能回答深度思考的問題跟答案 "LoRA微調: 40%
根據使用unsloth套件的範例,在colab上執行時,模型同時有原始模型的能力跟新知識的能力(需評估正確率)
參考: https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Gemma3_(270M).ipynb
參考: Gemma 3微调指南 - 汇智网
該配置(torch 2.9)在我的筆電遇到硬體問題,評估是否更新顯示卡驅動程式
根據以下issue的解法: https://github.com/pytorch/pytorch/issues/162909
若不用unsloth套件,改用transformers套件使用相同參數,模型會遺忘原始模型的能力
尚未調整出能保留原始模型能力的參數
全微調 + 經驗回放: 30%
全微調時,用通用資料(alpaca中文) + 機構文件資料,模型同時有原始模型的能力跟新知識的能力(需評估正確率)
再測試台灣的通用資料集 https://huggingface.co/datasets/lianghsun/tw-instruct-500k
LLaMA-Factory使用: 80%
最大跑到0.6B的模型,1B的模型會out of memory
設計資料萃取自動化的系統架構: 80%
建立文件匯入規格 - copilot依照規格執行
文件解析 - markitdown-mcp server 轉換文件成markdown格式並分頁
設計資料進db的處理方式 - mcp-server-mysql 匯入,多文件匯入會不穩定
後端資料庫schema - 已建立資料庫於 .49
資料匯出/存入(問答資料存入) - 已測試資料匯入跟問答資料存入
模型訓練流程 - 按照之前的流程
模型匯出 - 按照之前的流程
讓模型能回答需要組合的問題跟答案: 70%
已根據目前的資料建立隨機組合的問答並訓練模型,總訓練時間約 6.5 小時
提升多輪問答的準確率,但仍然有回答錯誤的可能
參考: https://github.com/microsoft/lost_in_conversation
參考: https://www.together.ai/blog/fine-tuning-llms-for-multi-turn-conversations-a-technical-deep-dive
讓模型能回答深度思考的問題跟答案: 10%
已測試 WizardLM 中對問答增加廣度與深度的方法,但生成的速度慢,需要調整
參考: https://github.com/nlpxucan/WizardLM
參考: https://arxiv.org/abs/2506.19262"
"2025/11/17
(第47周)" 生成式AI 進行中 "1. LLaMA-Factory
2. LoRA微調
3. 設計資料萃取自動化的系統架構
" 1. 讓模型能回答深度思考的問題跟答案 "LLaMA-Factory使用: 80%
測試Train / Evaluate & Predict / Chat / Export
Evulate & Predict只支援訓練資料集的NLG評估
llamafactory-cli 支援少量通用能力評估 (MMLU等資料集)
已可使用xpu
已可用自己的資料集訓練
支援多輪對話的資料格式
LoRA微調: 40%, 預計完成日 2025/11/20
保留較多的原始模型行為,但新知識學習能力不如全微調
尚未發現原始模型能力能夠泛化到新知識
可能新知識問答的敘述方式要接近原始模型的敘述
用原始模型重新敘述新知識的問答 (self-instruct)
參考https://github.com/yizhongw/self-instruct
設計資料萃取自動化的系統架構: 80%, 預計完成日 2025/11/20
建立文件匯入規格 - copilot依照規格執行
文件解析 - markitdown-mcp server 轉換文件成markdown格式並分頁
設計資料進db的處理方式 - mcp-server-mysql 匯入,多文件匯入會不穩定
後端資料庫schema - 已建立資料庫於 .49
資料匯出/存入(問答資料存入) - 已測試資料匯入跟問答資料存入
模型訓練流程 - 按照之前的流程
模型匯出 - 按照之前的流程
讓模型能回答需要組合的問題跟答案: 70%, 預計完成日 2025/11/20
已根據目前的資料建立隨機組合的問答並訓練模型,總訓練時間約 6.5 小時
提升多輪問答的準確率,但仍然有回答錯誤的可能
參考: https://github.com/microsoft/lost_in_conversation
參考: https://www.together.ai/blog/fine-tuning-llms-for-multi-turn-conversations-a-technical-deep-dive
讓模型能回答深度思考的問題跟答案: 10%, 預計完成日 2025/11/20
已測試 WizardLM 中對問答增加廣度與深度的方法,但生成的速度慢,需要調整
參考: https://github.com/nlpxucan/WizardLM
參考: https://arxiv.org/abs/2506.19262"
"2025/11/10
(第46周)" 生成式AI 進行中 "1. 設計資料萃取自動化的系統架構
2. 模型的benchmark評估
3. 測試微調訓練時只變動外加權重
" 3. 讓模型能回答深度思考的問題跟答案 " 設計資料萃取自動化的系統架構: 80%, 預計完成日 2025/11/14
建立文件匯入規格 - copilot依照規格執行
文件解析 - markitdown-mcp server 轉換文件成markdown格式並分頁
設計資料進db的處理方式 - mcp-server-mysql 匯入,多文件匯入會不穩定
後端資料庫schema - 已建立資料庫於 .49
資料匯出/存入(問答資料存入) - 已測試資料匯入跟問答資料存入
模型訓練流程 - 按照之前的流程
模型匯出 - 按照之前的流程
模型的benchmark評估: 100%
確認模型微調前後的benchmark分數
repository: https://github.com/EleutherAI/lm-evaluation-harness/
測試微調訓練時固定原始權重,只微調外加權重(LoRA): 30%, 預計完成日 2025/11/14
在if eval指令遵循的評估分數比全微調佳 (需調低rank參數)
rank調低即微調權重變少,訓練資料越多時,if eval分數下降,新知識的測試分數下降
實際對話時,回答一般問題時出現類似模型微調前的回答,但回答結果仍不及微調前的模型
讓模型能回答需要組合的問題跟答案: 70%, 預計完成日 2025/11/14
已根據目前的資料建立隨機組合的問答並訓練模型,總訓練時間約 6.5 小時
提升多輪問答的準確率,但仍然有回答錯誤的可能
參考: https://github.com/microsoft/lost_in_conversation
參考: https://www.together.ai/blog/fine-tuning-llms-for-multi-turn-conversations-a-technical-deep-dive
讓模型能回答深度思考的問題跟答案: 10%, 預計完成日 2025/11/14
已測試 WizardLM 中對問答增加廣度與深度的方法,但生成的速度慢,需要調整
參考: https://github.com/nlpxucan/WizardLM
參考: https://arxiv.org/abs/2506.19262
"
"2025/11/03
(第45周)" 生成式AI 進行中 "1. 設計資料萃取自動化的系統架構
2. 讓模型能回答需要組合的問題跟答案
" 3. 讓模型能回答深度思考的問題跟答案 " 設計資料萃取自動化的系統架構: 80%, 預計完成日 2025/11/05
設計資料進db的處理方式 - mcp server 匯入,多文件匯入會不穩定
後端資料庫schema - 已建立資料庫於 .49
資料匯出/存入(問答資料存入) - 已測試資料匯入跟問答資料存入
模型訓練流程 - 按照之前的流程
模型匯出 - 按照之前的流程
讓模型能回答需要組合的問題跟答案: 70%, 預計完成日 2025/11/06
已根據目前的資料建立隨機組合的問答並訓練模型,總訓練時間約 6.5 小時
提升多輪問答的準確率,但仍然有回答錯誤的可能
參考: https://github.com/microsoft/lost_in_conversation
參考: https://www.together.ai/blog/fine-tuning-llms-for-multi-turn-conversations-a-technical-deep-dive
讓模型能回答深度思考的問題跟答案: 10%, 預計完成日 2025/11/07
已測試 WizardLM 中對問答增加廣度與深度的方法,但生成的速度慢,需要調整
參考: https://github.com/nlpxucan/WizardLM
參考: https://arxiv.org/abs/2506.19262"
"2025/10/27
(第44周)" 生成式AI 進行中 "1. 模型微調DEMO
2. 設計資料萃取自動化的系統架構" "1. 設計資料萃取自動化的系統架構
2. 讓模型能回答需要組合的問題跟答案
3. 讓模型能回答深度思考的問題跟答案" "1. 設計資料萃取自動化的系統架構: (預計完成日 2025/10/29)
o 設計資料進db的處理方式
o 後端資料庫schema
o 資料匯出/存入(問答資料存入)
o 模型訓練流程
o 模型匯出
2. 讓模型能回答需要組合的問題跟答案: (預計完成日 2025/10/31)
o 以隨機或有目的性的組合問答,讓模型學會多輪問答
1. 參考: https://github.com/microsoft/lost_in_conversation
2. 參考: https://arxiv.org/abs/2506.19262
3. 讓模型能回答深度思考的問題跟答案: (預計完成日 2025/11/05)
o 增加問答的廣度與深度
1. 參考: https://github.com/nlpxucan/evol-instruct)
2. 參考: https://www.together.ai/blog/fine-tuning-llms-for-multi-turn-conversations-a-technical-deep-dive
"
"2025/10/20
(第43周)" 生成式AI 進行中 1. 測試 gemma 3 270m / Qwen3-0.6B 微調 (提高訓練資料量以提高模型回答機構設計文件內容的效果) "1. 測試 gemma 3 270m / Qwen3-0.6B 微調 (提高訓練資料量以提高模型回答機構設計文件內容的效果)
2. 測試llm進行圖片辨識"
"2025/10/13
(第42周)" 生成式AI 進行中 1. 測試 gemma 3 270m / Qwen3-0.6B 微調 (增加微調訓練資料到2萬筆問答) "1. 測試 gemma 3 270m / Qwen3-0.6B 微調 (提高訓練資料量以提高模型回答機構設計文件內容的效果)
2. 測試llm進行圖片辨識"
"2025/10/07
(第41周)" 生成式AI 進行中 1. 測試 gemma 3 270m / Qwen3-0.6B 微調 (嘗試讓模型回答出長的機構設計文件內容) "1. 測試 gemma 3 270m / Qwen3-0.6B 微調 (嘗試讓模型回答出多種機構設計文件內容)
2. 測試llm進行圖片辨識"
"2025/9/30
(第40周)" 生成式AI 進行中 1. 測試 gemma 3 270m 預訓練pretrain (中文維基百科、機構設計、中文新聞、英文新聞) "1. 測試llm預訓練pretrain
2. 測試llm進行圖片辨識"
"2025/9/22
(第39周)" 生成式AI 進行中 "1.以Mechanical Design Guide 測試模型微調(Qwen3-0.6B,機構零件中英對照、組立件命名、model-tree)
2. 測試影像訓練" "1. 測試llm預訓練pretrain
2. 測試llm進行圖片辨識"
"2025/9/15
(第38周)" 生成式AI 進行中 "1. 以Mechanical Design Guide測試模型in Context Learning (Qwen3-0.6B)
2. 以Mechanical Design Guide 測試模型微調(Qwen3-0.6B,機構零件中英對照、組立件命名、model-tree)" "1.以Mechanical Design Guide 測試模型微調(Qwen3-0.6B,機構零件中英對照、組立件命名、model-tree)
2. 測試影像訓練"
"2025/9/8
(第37周)" 生成式AI 進行中 "1.讓模型微調時能夠使用intel GPU
2.測試gemma-3-270m, - Qwen3-0.6B等模型微調" "1.整理ai任務所需欄位(結構化)
2.讓ai模型跑在平台上(ollama or llama.cpp)
3.測試image的模型微調
4.了解AI MCP(Model Context Protocol)"
Comments...
No Comments Yet...