首页IT科技羊驼寿命一般多少年(【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca)

羊驼寿命一般多少年(【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca)

时间2025-07-16 09:18:49分类IT科技浏览5496
导读:昨天在github上看到一个在本地部署中文大模型的项目,和大家分享一下。先把地址po出来。...

昨天在github上看到一个在本地部署中文大模型的项目              ,和大家分享一下               。先把地址po出来                      。

项目名称:中文LLaMA&Alpaca大语言模型+本地部署 (Chinese LLaMA & Alpaca LLMs)

项目地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca

以下是原github中给出的体验GIF                      ,可以看到这个模型还是具备一定的指令理解和上下文对话能力的       。

由于模型使用的是LoRA(一种高效模型训练方法)        ,所以整个模型的参数量是比较小的(压缩包大概不到800M)              ,但是需要和原版Facebook的权重进行结合才能使用       。其实Facebook开源了                     ,但又没完全开源        ,薛定谔的猫(滑稽)                      。所以大家自己想办法去搞到原版权重吧              。

整个合并流程在原项目里写的都比较清楚       ,大家可以自己去看一下                     ,需要alpaca-lora和llama.cpp两个工具       。

具体步骤就不赘述了               ,感兴趣的看一下项目中的描述                      。

我使用的是苹果M1芯片       ,整体上没遇到什么麻烦                     ,很顺利的就完成了模型量化过程               ,最终模型大概是4G              。接下来就可以欢快地在本地玩耍了。解码参数就用的项目中提供的默认配置                      。

接下来就用量化后的模型测一下效果                     。需要注意的是量化后会有精度损失,效果应该是没有完整版的好                     ,但好在速度快。

我先问一个关于温室效应的问题

整体上我觉得答得还是蛮不错的                      ,而且也具备一些上下文的理解能力,而不是单轮能力               。

再问一个数学问题

可以看到这里的回答不尽人意              ,也是很多开源模型的硬伤                      ,对数值计算和推理方面不是很在行                     。

如何制作宫保鸡丁?

可以看到制作宫保鸡丁的一些要素是包含了        ,但是可以想象出这个做出来可能并不是宫保鸡丁 😂

写一封信

写信方面做的还是不错的              ,虽然里面有一些小细节还需要再斟酌和修改       。

最后再来几个翻译吧

整体翻译的还是不错的                     ,没有什么大毛病               。

总结

整体而言        ,该模型具备一定的中文理解能力       ,也有类似ChatGPT的指令执行和上下文理解能力                     ,对于一些常规的非推理类的任务来说还是比较好的                      。但也能看到在数学               、推理                      、代码等场景效果不好       。这可能是因为训练数据里没有涉及太多这部分数据的关系       。相信之后会有更多类似的模型出现               ,进一步降低大模型的门槛                      。

创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!

展开全文READ MORE
hp system tray status(HPWuSchd2.exe是什么进程 作用是什么 HPWuSchd2进程查询) seo如何进行优化(seo怎样优化)