首页IT科技国产模型厂商有哪些品牌(类ChatGPT国产大模型ChatGLM-6B,单卡即可运行)

国产模型厂商有哪些品牌(类ChatGPT国产大模型ChatGLM-6B,单卡即可运行)

时间2025-08-03 02:07:21分类IT科技浏览5413
导读:2023年3月14日GPT4又发布了,在ChatGPT发展如火如荼的当下,我们更应该关注国内的进展,今天将分享一个清华大学基于GLM-130B模型开发的类似ChatGPT的ChatGLM-6B模型,ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM...

2023年3月14日GPT4又发布了                ,在ChatGPT发展如火如荼的当下                        ,我们更应该关注国内的进展        ,今天将分享一个清华大学基于GLM-130B模型开发的类似ChatGPT的ChatGLM-6B模型                ,ChatGLM-6B 是一个开源的                、支持中英双语的对话语言模型                        ,基于 General Language Model (GLM) 架构        ,具有 62 亿参数                。结合模型量化技术        ,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)                        。ChatGLM-6B 使用了和 ChatGPT 相似的技术                        ,针对中文问答和对话进行了优化        。经过约 1T 标识符的中英双语训练                ,辅以监督微调                        、反馈自助        、人类反馈强化学习等技术的加持        ,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答        。

官网博客:https://chatglm.cn/blog

代码地址:https://github.com/THUDM/ChatGLM-6B

ChatGLM-6B 有如下特点

ChatGLM-6B进展

目前还在内测阶段                        ,内测的版本是qa-glm-v0.7                ,内测地址:https://chatglm.cn/login

充分的中英双语预训练: ChatGLM-6B 在 1:1 比例的中英语料上训练了 1T 的 token 量,兼具双语能力                        。 优化的模型架构和大小: 吸取 GLM-130B 训练经验                        ,修正了二维 RoPE 位置编码实现                        ,使用传统FFN结构                。6B(62亿)的参数大小,也使得研究者和个人开发者自己微调和部署 ChatGLM-6B 成为可能        。 较低的部署门槛: FP16 半精度下                ,ChatGLM-6B 需要至少 13GB 的显存进行推理                        ,结合模型量化技术        ,这一需求可以进一步降低到 10GB(INT8) 和 6GB(INT4)                , 使得 ChatGLM-6B 可以部署在消费级显卡上                        。 更长的序列长度: 相比 GLM-10B(序列长度1024)                        ,ChatGLM-6B 序列长度达 2048        ,支持更长对话和应用                。 人类意图对齐训练: 使用了监督微调(Supervised Fine-Tuning)                、反馈自助(Feedback Bootstrap)                        、人类反馈强化学习(Reinforcement Learning from Human Feedback) 等方式        ,使模型初具理解人类指令意图的能力。输出格式为 markdown                        ,方便展示                        。

ChatGLM-6B调用方式

可喜的是                ,模型已经集成到Huggingface了        ,可以使用如下方式进行调用:

>>> from transformers import AutoTokenizer, AutoModel >>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) >>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda() >>> response, history = model.chat(tokenizer, "你好", history=[]) >>> print(response) 你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题                        。 >>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history) >>> print(response) 晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法: 1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床                。 2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜                        。可以使用舒适的床上用品,并保持房间通风        。 3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡                。 4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量                        。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐        。 5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠        。 6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡                        。试着慢慢吸气,保持几秒钟,然后缓慢呼气                。 如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议        。

Note:也可以使用gradio进行web端展示效果                        ,可以参考https://github.com/THUDM/ChatGLM-6B/blob/main/web_demo.py

ChatGLM-6B局限

由于ChatGLM-6B的小规模                ,其能力仍然有许多局限性                        。以下是我们目前发现的一些问题:

模型容量较小:6B的小容量,决定了其相对较弱的模型记忆和语言能力                。在面对许多事实性知识任务时                        ,ChatGLM-6B可能会生成不正确的信息;它也不擅长逻辑类问题(如数学        、编程)的解答;

产生有害说明或有偏见的内容:ChatGLM-6B只是一个初步与人类意图对齐的语言模型                        ,可能会生成有害        、有偏见的内容。(内容可能具有冒犯性,此处不展示);

英文能力不足:ChatGLM-6B 训练时使用的指示/回答大部分都是中文的                ,仅有极小一部分英文内容                        。因此                        ,如果输入英文指示        ,回复的质量远不如中文                ,甚至与中文指示下的内容矛盾                        ,并且出现中英夹杂的情况;

易被误导        ,对话能力较弱:ChatGLM-6B 对话能力还比较弱        ,而且 “自我认知                ” 存在问题                        ,并很容易被误导并产生错误的言论                        。例如当前版本的模型在被误导的情况下                ,会在自我认知上发生偏差。

参考文献

[1] https://chatglm.cn/blog

[2] https://github.com/THUDM/ChatGLM-6B

创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!

展开全文READ MORE
文章采集网站源码是什么意思(文章采集网站源码是什么) 苹果cms采集助手(苹果CMS提取:制作你的专属网站)