使用多任务高效微调框架 MFTCoder,以 DeepSeek-Coder-33b 模型为底座,微调获得的 CodeFuse-DeepSeek-33b 模型在 Big Code Models Leaderboard 代码大模型榜单上以 43.58% WinRate 成为新晋榜首,同时模型在 NLP 任务上也取得了很好的表现。本文我们将介绍该模型的得来和使用,包括训练数据、训练超参设置、模型评测效果以及如何获取该模型和基于它继续微调。我们已经在 HuggingFace 和 ModelScope 开放了模型下载(下载地址在文末),并同步提供了 4bit 量化版本供大家直接部署到生产环境。
暂无更多评论