Llama3模型本地部署中文版

介绍

Llama3-Chinese以Meta-Llama-3-8B为底座,使用 DORA[1] + LORA+[2] 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。

Github:https://github.com/seanzhang-zhichen/llama3-chinese

模型下载

Model Download
Meta-Llama-3-8B 🤗 HuggingFace[3] 🤖 ModelScope[4]
Llama3-Chinese-Lora 🤗 HuggingFace[5] 🤖 ModelScope[6]
Llama3-Chinese (合并好的模型) 🤗 HuggingFace[7] 🤖 ModelScope[8]

合并LORA模型(可跳过)

1、下载 Meta-Llama-3-8B[9]

git clone https://www.modelscope.cn/LLM-Research/Meta-Llama-3-8B.git

2、下载Llama3-Chinese-Lora[10]

From ModelScope

git lfs install
git clone https://www.modelscope.cn/seanzhang/Llama3-Chinese-Lora.git

From HuggingFace

git lfs install
git clone https://huggingface.co/zhichen/Llama3-Chinese-Lora

3、合并模型

python merge_lora.py \    
    --base_model path/to/Meta-Llama-3-8B \    
    --lora_model path/to/lora/Llama3-Chinese-Lora  \    
    --output_dir ./Llama3-Chinese

下载 Llama3-Chinese(合并好的模型)

From ModelScope

git lfs install
git clone https://www.modelscope.cn/seanzhang/Llama3-Chinese.git

From HuggingFace

git lfs install
git clone https://huggingface.co/zhichen/Llama3-Chinese

vllm web 推理

1、使用vllm[11]部署模型

python -m vllm.entrypoints.openai.api_server --served-model-name Llama3-Chinese --model ./Llama3-Chinese(换成你自己的合并后的模型路径)

2、在命令行执行

python vllm_web_demo.py --model Llama3-Chinese

训练数据集

匠数科技大模型sft数据集[12]

LICENSE

本项目仅可应用于研究目的,项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。详细请参考免责声明[13]

Llama3-Chinese项目代码的授权协议为 The Apache License 2.0[14],代码可免费用做商业用途,模型权重和数据只能用于研究目的。请在产品说明中附加Llama3-Chinese的链接和授权协议。

Citation

如果你在研究中使用了Llama3-Chinese,请按如下格式引用:

@misc{Llama3-Chinese,  title={Llama3-Chinese},  author={Zhichen Zhang, Xin LU, Long Chen},  year={2024},  howpublished={\url{https://github.com/seanzhang-zhichen/llama3-chinese}},}

Acknowledgement

meta-llama/llama3[15]

hiyouga/LLaMA-Factory[16]

References

[1] DORA: https://arxiv.org/pdf/2402.09353.pdf
[2] LORA+: https://arxiv.org/pdf/2402.12354.pdf
[3] 🤗 HuggingFace: https://huggingface.co/meta-llama/Meta-Llama-3-8B
[4] 🤖 ModelScope: https://modelscope.cn/models/LLM-Research/Meta-Llama-3-8B
[5] 🤗 HuggingFace: https://huggingface.co/zhichen/Llama3-Chinese-Lora
[6] 🤖 ModelScope: https://modelscope.cn/models/seanzhang/Llama3-Chinese-Lora
[7] 🤗 HuggingFace: https://huggingface.co/zhichen/Llama3-Chinese
[8] 🤖 ModelScope: https://modelscope.cn/models/seanzhang/Llama3-Chinese
[9] Meta-Llama-3-8B: https://modelscope.cn/models/LLM-Research/Meta-Llama-3-8B
[10] Llama3-Chinese-Lora: https://www.modelscope.cn/models/seanzhang/Llama3-Chinese-Lora
[11] vllm: https://github.com/vllm-project/vllm
[12] 匠数科技大模型sft数据集: https://modelscope.cn/datasets/deepctrl/deepctrl-sft-data
[13] 免责声明: https://github.com/seanzhang-zhichen/Llama3-Chinese/blob/main/DISCLAIMER
[14] The Apache License 2.0: ./LICENSE
[15] meta-llama/llama3: https://github.com/meta-llama/llama3
[16] hiyouga/LLaMA-Factory: https://github.com/hiyouga/LLaMA-Factory

扫码领红包

微信赞赏支付宝扫码领红包

发表回复

后才能评论