Chinese-LLaMA-Alpaca 包含中文 LLaMA 模型和经过指令微调的 Alpaca 大型模型。
这些模型在原始 LLaMA 的基础上,扩展了中文词汇表并使用中文数据进行二次预训练,从而进一步提高了对中文基本语义理解的能力。同时,中文 Alpaca 模型还进一步利用中文指令数据进行微调,明显提高了模型对指令理解和执行的能力。
本项目主要内容
- 针对原版LLaMA模型扩充了中文词表,提升了中文编解码效率
- 开源了使用中文文本数据预训练的中文LLaMA以及经过指令精调的中文Alpaca
- 快速使用笔记本电脑(个人PC)的CPU/GPU本地量化和部署体验大模型
- 支持Hugging Face transformers,llama.cpp,text-generation-webui,LlamaChat等生态
- 目前已开源的模型版本:7B(标准版、Plus版)、13B(标准版)
下图是中文Alpaca-7B模型在本地CPU量化部署后的实际体验效果(GIF未加速,M1 Max下实测):
评论