这两天科技新闻中Llama 3消息刷爆了,中国时间 2024 年 4 月 19 日 0 点 0 分,Meta Llama 3 发布。模型以开源形式提供,包含 8B 和 70B 两种参数规模,涵盖预训练和指令调优的变体。Llama 3 支持多种商业和研究用途,并已在多个行业标准测试中展示了其卓越的性能。
Llama 3 在超过 15 万亿个标记上进行训练,比 Llama 2 的数据集大 7 倍多。它大大降低了错误拒绝率,并提供了更高的响应一致性和多样性。此外,它还集成了新的信任和安全工具,如 Llama Guard 2、Code Shield 和 CyberSec Eval 2。
项目开源地址
https://github.com/meta-llama/llama3
模型已经在Hugging Face上可以下载了
昨天给大家写一篇文章关于《 免费畅玩 Llama 3:4 种方法体验史上最强开源语言模型》体验了一下Llama 3目前我测试效果来看模型能力还行,但是中文差了点,尤其是对比google gemini pro chatgpt等等,感觉meta 很不重视中国啊,由于Llama3 开源,国内也有很多小伙伴发现了它的不足,中文能力不行。今天我在github上面看到已经有网友对Llama3进行中文微调。那中文微调的效果如何呢?我先给大家看一下
1 效果演示
问题1:你好,你是谁?
问题答案:我是LLama3-Chinese,是由ShareAI训练的大型语言模型。我可以回答各种各样的问题。
看来已经不是原来的LLama3了
问题2:java 冒泡排序算法
这块应该是模型底层代码能力的问题,输出的结果也只是做了汉化了。这个效果也还行至少程序员能看懂。
问题3:鲁迅和周树人是什么关系?
这个回答和LLama3-8B 回答是一样的 只是做了汉化处理,LLama3-70B 能准确的回答这个问题(鲁迅和周树人是同一个人)
我们给它汉化一下
问题4:只剩一个心脏了还能活吗?
回答中规中矩,还算满意
问题5:我25岁 我爸50岁 那我爸两岁就生了我啦?
回答不错,没有调到坑里面。
问题6:为什麽我老婆内裤拔下来没有马赛克?
看来meta对数据安全隐私方面做了一些处理,对这类问题拒绝回答。
问题7:两千块钱买什么新车好?
没给我回答,但是给我其他问题回复,也还算能接受。
问题8:鸡柳是鸡身上哪个部位啊?
回答的不错,没有被绕道坑里面。
以上就是我测试的8个中文问题,对比原版的llama3 中英文结合的回答结果。这个微调后的中文版本更符合中国人的使用习惯。
下面给大家介绍这个项目如何在本地环境部署的。
2 本地环境部署
2.1 模型下载地址
- V1版本:
- OpenCSG满速下载:https://opencsg.com/models/shareAI/llama3-Chinese-chat-8b
- WiseModel满速下载:https://wisemodel.cn/models/shareAI/llama3-Chinese-chat-8b
选择其中一个下载到本地。
选择一个电脑盘符,我的是 F:AI
鼠标右键,选择git bash here (没有git 下伙伴可以自己百度搜索一下安装)
在这个git 命令行窗口中输入如下命令
git clone https://opencsg.com/models/shareAI/llama3-Chinese-chat-8b.git --depth 1
等待这个模型下载完成,时间大概有点长(主要取决你的网速),下载完成后模型文件如下
有2个大的模型文件,大概有15G左右。
2.2 下载程序包
https://opencsg.com/models/shareAI/llama3-Chinese-chat-8b#/
在github 项目中通过 git 命令下载代码或者下载程序源码压缩包。(这里就以程序源码压缩包方式举例)
下载完成(我的是在我f 盘 temp 文件下)
按照如图所示解压源码压缩包文件,解压后文件内容格式如下
进入deploy 文件夹中,我们看到有一个web_streamlit_for_v1.py 程序
以上步骤完成程序包下载并解压。下面我们需要安装程序依赖包
2.3 安装依赖包
pip install -U streamlit
在命令行窗口中执行如上命令 ,安装streamlit 依赖包。(注意 本地电脑是需要提前安装好python 运行环境,建议安装python3.10 )我的是python 3.11
本项目是在llama3-8B 模型做的微调,所以需要的显存要求
模型推理成本
- fp16 模式 大概占用16G显存,推荐24G显卡使用
- int4模式 大概占用8G显存,推荐至少10G显存使用,需要自行搜索修改代码中load_in_4bit=True
我电脑上是英伟达3060显卡 显存是12GB,所以fp16 下应该是跑不起来的,所以我使用int4模式
因为是int4模式运行,所以我们还需要安装bitsandbytes,另外transformers 最好是升级到最新版本。
程序中相关依赖包需要您自己安装(项目中没有提到依赖包安装,这点不好)
我这里列举一下可能需要的依赖包
pip install --upgrade bitsandbytespip install peftpip install transformerspip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
2.4 修改代码
因为我们是跑4B量化的,所以需要修改代码中load_in_4bit=True
大概250行,将这行代码load_in_4bit=False 改成 True
model, tokenizer = load_model(model_name_or_path, adapter_name_or_path=adapter_name_or_path, load_in_4bit=True)
大概186行,AutoModelForCausalLM模型加载中去掉 load_in_4bit=load_in_4bit,因为前面已经构造了load_in_4bit这个参数就没有必要了,不修改程序会报错
修改代码截图如下
2.5 启动程序
windows 目录F:templlama3-Chinese-chat-maindeploy 文件夹目录中,输入CMD
弹出命令行窗口,执行如下命令
streamlit run web_streamlit_for_v1.py F:AIllama3-Chinese-chat-8b --theme.base="dark"
其中F:AIllama3-Chinese-chat-8b 是模型下载后保存的目录
命令行执行完成后模型加载,同时浏览器窗口自动打开
当模型加载完成后,我们查看一下电脑任务管理器 显卡监控图
后面我们就可以愉快聊天了
总结:Llama3的发布对AI行业产生了深远影响。目前已经出现中文版本微调模型了,不过目前这个项目还不算完善。随着时间的推移我相信国内会有更多针对Llama3的微调模型出现。今天分享就到这里,欢迎留言点赞,你的支持是我持续更新的最大动力。
说明:以上测试的题目从“弱智吧”题库里面选取的,有需要的小伙伴可以留言,私信给我。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。