FFM-Mistral-7B、FFM-Mistral-7B-4K、FFM-Mixtral-8x7B
FFM-Mistral 系列是以 Mistral AI 所推出的開源大語言模型 Mistral 7B 和 Mixtral 8x7B 為基礎,強化繁體中文版本的大語言模型。當您使用 FFM-Mistral 系列模型時,代表您同意遵守 Apache 2.0 授權條款。
FFM-Mistral-7B
FFM-Mistral-7B 以高品質繁中語料訓練 Mistral AI 開源模型 Mistral-7B,原生 32K Context Length 可處理大量文字,且模型 Coding 能力接近 Meta-CodeLlama-7B,滿足長文本處理及 Coding 等多方面需求。
FFM-Mistral-7B-4K
FFM-Mistral-7B 另提供 4K 的限制上下文長度版本,讓無需 32K 使用者可以有更符合成本效益的選擇。
FFM-Mixtral-8x7B
FFM-Mixtral-8x7B 以高品質繁中語料訓練 Mistral AI 開源模型 Mixtral-8x7B,原生 32K Context Length 可處理大量文字,且模型為混合專家模型架構 (MoE),每次互動皆會觸發不同專家模組處理特定領域的問題,能以低成本運算大量參數及資料。
FFM-Mistral 系列模型特性與規格請見此文件。
FFM-Mistral 系列模型可在 AFS Platform 進行優化,並在 AFS Cloud、AFS ModelSpace 公用模式與私有模式進行部署。