📄️ FFM 系列模型特性與規格
版次:20250425
📄️ Llama3.3-FFM-70B-32K
Llama3.3-FFM-70B-32K 是以 Meta-Llama 3.3 為基礎強化 Tool call 功能的大語言模型,繁中表現優異,且大幅提升 Tool call 功能的準確性,BFCL 測評由原生模型的 85.08% 準確性提升至 92.18%,Simple、Parallel tool call 皆有顯著提升。
📄️ Llama3.2-FFM-11B-V-32K
Llama3.2-FFM-11B-V-32K 是以 Meta-Llama-3.2-11B-Vision 為基礎進行繁中優化的視覺語言模型,改善了原生模型在繁中表現不佳的問題,是目前唯一支援Meta-Llama3.2 繁中強化的多模態模型。Llama3.2-FFM-11B-V-32K 對於圖片中的繁中文字識別能力與理解能力表現優異,對於中文文檔 OCR 效果提升,回答問題更加精確。
📄️ Llama3.1-FFM - 8B、70B - 32K
Llama3.1-FFM 是以 Meta-Llama 3.1 為基礎優化的大語言模型,繁中表現優異,保留原生 128K 擴充詞表,支援 Function Calling,且與 OpenAI API 相容。Llama3.1-FFM 系列模型提供 32K 的規格於 AFS 部署。Llama3.1-FFM 系列模型特性與規格請見此文件。
📄️ LLama3-FFM 70B、8B
Llama3-FFM 是以 Meta 所推出的開源大語言模型 Meta Llama 3 為基礎,強化繁體中文版本的大語言模型。當您使用 Llama3-FFM 系列模型時,代表您同意遵守Meta-Llama3授權條款。
📄️ FFM-Mistral-7B、FFM-Mistral-7B-4K、FFM-Mixtral-8x7B
FFM-Mistral 系列是以 Mistral AI 所推出的開源大語言模型 Mistral 7B 和 Mixtral 8x7B 為基礎,強化繁體中文版本的大語言模型。當您使用 FFM-Mistral 系列模型時,代表您同意遵守 Apache 2.0 授權條款。
📄️ FFM-Llama2-v2 - 7B、13B、70B (含 FFM-Llama2)
FFM-Llama2 是以 Meta 所推出的開源大語言模型 Meta Llama 2 為基礎,強化繁體中文版本的大語言模型。FFM-Llama2-v2 新增擴充詞表,大幅提升中文文章閱讀理解能力,加強英文詩詞翻譯的品質,以及增加模型推論效率與回應速度,節省運算資源。在處理相同中文文本時,FFM-Llama2-v2 產生每一字元所需的 Token 數量約為 FFM-Llama2 的 50%,即 Token 計算效率提升約為原先的 2 倍。FFM-Llama2-v2 系列模型特性與規格請見此文件。
📄️ FFM-embedding-v2(含 v2.1)、FFM-embedding
Embedding 模型可以將複雜的文本轉換為一組向量,轉換成更容易處理和理解形式的同時,仍保留關鍵信息,有助於進行解析文本、關鍵字分析、簡單分類文本內容等任務。
📄️ TAIDE-LX-7B
TAIDE-LX-7B 是國科會為台灣打造的本土化 LLM,專注於繁體中文,選擇本土語言的語料庫,進行本土文化的語意理解,強化模型處理繁體中文的能力,並引入不同領域的文本,以提高模型在各領域的性能。當您使用此模型時,代表您同意遵守其條款。更多 TAIDE 語言模型相關內容請參考官方網站。
📄️ Meta-Llama3.3-70B-Instruct-32K
Meta-Llama3.3-70B-Instruct 是由 Meta 所推出的開源大語言模型,與 Llama3.1-405B 的效能表現相當,但成本效益更高,大幅降低運算需求與使用門檻。Meta-Llama3.3-70B-Instruct 模型提供 32K 的規格於 AFS 部署。當您使用 Meta-Llama3.3 模型時,代表您同意遵守 Meta-Llama3.3 授權條款。
📄️ Meta-Llama3.1 - 8B、70B - 32K
Meta-Llama3.1 是由 Meta 所推出的開源大語言模型,相較於 Llama3,Llama3.1 在訓練規模和語言種類等方面有所提升。Meta-Llama3.1 系列模型提供 32K 的規格於 AFS 部署。當您使用 Meta-Llama3.1 系列模型時,代表您同意遵守 Meta-Llama3.1 授權條款。
📄️ Meta-Llama2-7B、13B、70B
Meta-Llama2 模型是 Meta 公司所推出的開源、可商用的大語言模型。Meta-Llama2 被認為在推理、知識測試表現令人驚豔,其參數量有三種規模,700 億、130 億、70 億,可以用來完成不同複雜度的任務。當您使用 Meta-Llama2 模型時,代表您同意遵守 Meta Llama2 條款。
📄️ Meta-CodeLlama-7B、13B、34B-8K
Meta-CodeLlama 是以 Meta-Llama 2 為基礎所開發的程式碼編寫專用語言模型。Meta-CodeLlama 具有更強的程式碼編寫能力,並支援多種程式設計語言,包括 Python、C++、Java、PHP、Typescript (Javascript)、C# 和 Bash。
📄️ Jina-embeddings-v2-base-code
Jina-embeddings-v2-base-code 為程式語言強化的向量模型,支援英語和 30 種廣泛使用的程式語言,具有 1.61 億個參數和 8192 個詞元長度。當您使用此模型時,代表您同意遵守其條款。更多 Jina-embeddings-v2-base-code 模型相關內容請參考 Hugging Face。
📄️ Qwen2.5-coder-7b-32k
Qwen2.5-coder 是專門用於程式碼生成的大語言模型,支持 92 種程式編碼語言,並能處理各種與編寫程式碼的任務,例如生成程式碼、修復程式碼、推理程式碼,且在數學能力有良好表現。Qwen2.5-coder 系列模型提供 32K 的規格於 AFS 部署。當您使用此模型時,代表您同意遵守其條款。更多 Qwen2.5-coder 模型相關內容請參考 Hugging Face。
📄️ BAAI-bge-reranker-v2-m3
BAAI-bge-reranker-v2-m3 是以 bge-m3 為基礎的輕量級重新排序 (ReRank) 模型,參數量為 5.68 億,具有多種語言能力,易於部署,推論速度快。當您使用此模型時,代表您同意遵守其條款。更多 BAAI-bge-reranker-v2-m3 模型相關內容請參考 Hugging Face。