· 閱讀時間約 2 分鐘
Yung-Hsiang Hu
Contributor功能更新
- 統整提供離線英文版文件 #39
- 支援直接串接第三方API,預設模型新增 Groq Llama3.1 70B
- 提供預先建置Docker Image,加快安裝速度
- Docker 版直接支援 CUDA,避免Container重複安裝
- 新增 Kuwa Javascript Library,能呼叫 Multi-chat API
- 聊天室內能透過點擊 Bot 圖片直接編輯Bot設定
- RAG 支援快取 Embedding model 與 Vector DB
- SearchQA 能方便串接第三方搜尋引擎
- DocQA/WebQA 支援 Failback 模式,可直接透過 LLM 進行問答
- Pipe 能從 Prompt 指定參數
- 新增 Media Converter,能剪接編輯影片或音訊
- Gemini 預設模型改為 Gemini 1.5 Flash
錯誤修復
- Docker WARN message "FromAsCasing: 'as' and 'FROM' keywords' casing do not match" #38
- Docker 版 Executor 圖示消失
- Windows 版中文顯示亂碼
- Windows 版建立 Vector DB 時,文件路徑不支援中文
- Windows 版檔名太長時會超過路徑長度上限
- ChatGPT executor 不遵守自訂 context_window
- Groq 串接教學
· 閱讀時間約 3 分鐘
Yung-Hsiang Hu
Contributor功能更新
- 新增 Pipe executor,可以執行限定目錄下的程式 (tool),例如串接 Python interpreter 即可直接執行模型輸出的 Python程式
- 提供 Calculator, Iconv 與 Python 等 Tool 範例程式,可透過 Pipe executor 呼叫
- 新增 Uploader executor 提供使用者上傳檔案到指定目錄,可上傳 Tool、RAG 知識庫或是網站元件
- 支援 Bot 匯出匯入,可匯出 Bot 名稱、說明、圖示、Modelfile 成單一 Bot 檔,類似應用編導檔;安裝時可以自動匯入預設的Bot檔
- 能選擇聊天室中 Bot 自動排序方式
- 支援更換 Bot 圖示
- 新增與 OpenAI API 相容的 Kuwa API server
- 預設提供串接雲端多模態 API 的範例: gpt-4o-mini-vision, DALL.E, Gemini pro 1.5 vision
- 支援從 Web 介面設定上傳檔案數量上限
- 支援在企業內部有 Web proxy 的環境下安裝與執行
- 支援透過 Intel GPU 加速模型推論
- 新增 Docker 版自動安裝與更新腳本,感謝 @wcwutw
- RAG Toolchain預設 Embedding model 更換為微軟的 intfloat/multilingual-e5-small模型,MIT授權
- RAG (DocQA, WebQA, SearchQA, DB QA) 新增display_hide_ref_content、retriever_ttl_sec等參數
- 下載工具的預選模型增加支援 Function calling 的 Meta Llama 3.1 8B 與輕量的 Google Gemma 2 2B
錯誤修復
- #21: Docker 版在 Reverse proxy 後不會生成 https:// 連結,感謝 @Phate334
- #23: 兩分鐘 Timeout 問題,感謝 @x85432
- #24: Modelfile 解析問題
- #25: 匯入 Prompt 時不會套用 Modelfile
windows\src\tee.bat
會被誤判成病毒
- RAG 參考資料不會顯示原始檔案名稱
- 更新 Windows 版相依套件下載點
· 閱讀時間約 2 分鐘
Yung-Hsiang Hu
Contributor功能更新
- 自訂 Bot 權限:可設定 Bot 在系統、社群、群組和個人層級的可讀和可執行權限
- 自訂上傳檔案原則:管理員可設定最大上傳檔案大小和允許的檔案類型
- 工具範例:新增 Copycat、token counter 等工具範例
- 串好的模型設定檔:提供 LLaVA 和其他串好的模型的設定檔
- 使用者體驗優化:美化圖示和聊天清單
- 更新預設模型:ChatGPT Executor 預設串接 GPT-4o,Gemini Executor 預設串接 Gemini 1.5 pro
錯誤修復