首页IT科技国产模型厂商有哪些品牌(类ChatGPT国产大模型ChatGLM-6B,单卡即可运行)

国产模型厂商有哪些品牌(类ChatGPT国产大模型ChatGLM-6B,单卡即可运行)

时间2025-06-17 22:54:49分类IT科技浏览4996
导读:2023年3月14日GPT4又发布了,在ChatGPT发展如火如荼的当下,我们更应该关注国内的进展,今天将分享一个清华大学基于GLM-130B模型开发的类似ChatGPT的ChatGLM-6B模型,ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM...

2023年3月14日GPT4又发布了              ,在ChatGPT发展如火如荼的当下                      ,我们更应该关注国内的进展       ,今天将分享一个清华大学基于GLM-130B模型开发的类似ChatGPT的ChatGLM-6B模型              ,ChatGLM-6B 是一个开源的              、支持中英双语的对话语言模型                      ,基于 General Language Model (GLM) 架构       ,具有 62 亿参数               。结合模型量化技术       ,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)                     。ChatGLM-6B 使用了和 ChatGPT 相似的技术                      ,针对中文问答和对话进行了优化       。经过约 1T 标识符的中英双语训练               ,辅以监督微调                      、反馈自助       、人类反馈强化学习等技术的加持       ,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答        。

官网博客:https://chatglm.cn/blog

代码地址:https://github.com/THUDM/ChatGLM-6B

ChatGLM-6B 有如下特点

ChatGLM-6B进展

目前还在内测阶段                     ,内测的版本是qa-glm-v0.7               ,内测地址:https://chatglm.cn/login

充分的中英双语预训练: ChatGLM-6B 在 1:1 比例的中英语料上训练了 1T 的 token 量,兼具双语能力                     。 优化的模型架构和大小: 吸取 GLM-130B 训练经验                     ,修正了二维 RoPE 位置编码实现                      ,使用传统FFN结构              。6B(62亿)的参数大小,也使得研究者和个人开发者自己微调和部署 ChatGLM-6B 成为可能        。 较低的部署门槛: FP16 半精度下              ,ChatGLM-6B 需要至少 13GB 的显存进行推理                      ,结合模型量化技术       ,这一需求可以进一步降低到 10GB(INT8) 和 6GB(INT4)              , 使得 ChatGLM-6B 可以部署在消费级显卡上                      。 更长的序列长度: 相比 GLM-10B(序列长度1024)                      ,ChatGLM-6B 序列长度达 2048       ,支持更长对话和应用              。 人类意图对齐训练: 使用了监督微调(Supervised Fine-Tuning)              、反馈自助(Feedback Bootstrap)                      、人类反馈强化学习(Reinforcement Learning from Human Feedback) 等方式       ,使模型初具理解人类指令意图的能力。输出格式为 markdown                      ,方便展示                      。

ChatGLM-6B调用方式

可喜的是               ,模型已经集成到Huggingface了       ,可以使用如下方式进行调用:

>>> from transformers import AutoTokenizer, AutoModel >>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) >>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda() >>> response, history = model.chat(tokenizer, "你好", history=[]) >>> print(response) 你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题                     。 >>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history) >>> print(response) 晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法: 1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床               。 2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜                     。可以使用舒适的床上用品,并保持房间通风       。 3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡               。 4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量                     。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐       。 5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠        。 6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡                     。试着慢慢吸气,保持几秒钟,然后缓慢呼气              。 如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议        。

Note:也可以使用gradio进行web端展示效果                     ,可以参考https://github.com/THUDM/ChatGLM-6B/blob/main/web_demo.py

ChatGLM-6B局限

由于ChatGLM-6B的小规模               ,其能力仍然有许多局限性                      。以下是我们目前发现的一些问题:

模型容量较小:6B的小容量,决定了其相对较弱的模型记忆和语言能力              。在面对许多事实性知识任务时                     ,ChatGLM-6B可能会生成不正确的信息;它也不擅长逻辑类问题(如数学       、编程)的解答;

产生有害说明或有偏见的内容:ChatGLM-6B只是一个初步与人类意图对齐的语言模型                      ,可能会生成有害       、有偏见的内容。(内容可能具有冒犯性,此处不展示);

英文能力不足:ChatGLM-6B 训练时使用的指示/回答大部分都是中文的              ,仅有极小一部分英文内容                      。因此                      ,如果输入英文指示       ,回复的质量远不如中文              ,甚至与中文指示下的内容矛盾                      ,并且出现中英夹杂的情况;

易被误导       ,对话能力较弱:ChatGLM-6B 对话能力还比较弱       ,而且 “自我认知               ” 存在问题                      ,并很容易被误导并产生错误的言论                     。例如当前版本的模型在被误导的情况下               ,会在自我认知上发生偏差。

参考文献

[1] https://chatglm.cn/blog

[2] https://github.com/THUDM/ChatGLM-6B

创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!

展开全文READ MORE
进入phpmyadmin(如何进入phpcms后台) python判断一个字符串的长度(python如何判断字符串编码方式)