ChatGLM概览
发布时间 | 2022年8月 |
更新时间 | 2023年6月25日 |
最新版本 | ChatGLM2 |
参数量级 | 7B/130B |
开源协议 | ChatGLM2-6B开源:https://github.com/THUDM/ChatGLM2-6B |
所属公司 | 清华大学 |
官网&内测申请 | https://chatglm.cn/ |
ChatGLM简介
ChatGLM是基于GLM(General Language Model)架构的对话语言模型,GLM是一个千亿参数规模的中英文语言模型,由清华大学唐杰教授领衔的知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University)研发。ChatGLM 参考了 ChatGPT 的设计思路,在千亿基座模型 GLM-130B1中注入了代码预训练,通过有监督微调(Supervised Fine-Tuning)等技术实现人类意图对齐。ChatGLM 当前版本模型的能力提升主要来源于独特的千亿基座模型 GLM-130B。
ChatGLM发展
2022年8月,GLM-130B作为一款拥有拥有1300亿参数的中英双语稠密模型 向研究界和工业界开放。
2023年3月14日,千亿对话模型 ChatGLM 开始内测,60亿参数 ChatGLM-6B 模型开源。
2023年6月25日,ChatGLM二代,ChatGLM2-6B、ChatGLM2-12B、ChatGLM2-32B、ChatGLM2-66B、ChatGLM2-130B 推出,相比一代模型在 MMLU、C-Eval、GSM8K 分别取得了16%、36%、280%的提升,并登顶中文任务榜单C-Eval,性能和速度均获得了极大的提升,同时ChatGLM2-6B宣布开源。
ChatGLM产品
QAGLM是基于ChatGLM开开发的一款AI对话机器人,可以实现AI对话交互,问答翻译,同时提供灵感中心,支持创作,学习,职场等众多领域内容的快速生成。
ChatGLM官网
ChatGLM内测申请:https://chatglm.cn/
ChatGLM2-6B开源地址:https://github.com/THUDM/ChatGLM2-6B
ChatGLM-6B开源地址:https://github.com/THUDM/ChatGLM-6B
暂无评论内容