XVERSE概览
发布时间 | 2023年8月7日 |
中文名 | 元象 |
英文名 | XVERSE |
最新版本 | XVERSE – 13B |
更新时间 | 2023年8月7日 |
参数量级 | 130B |
所属公司 | 深圳元象科技 |
行业类型 | 大语言模型(Large Language Model) |
开源地址 | https://github.com/xverse-ai/XVERSE-13B |
XVERSE介绍
XVERSE-13B 是由深圳元象科技自主研发的支持多语言的大语言模型(Large Language Model),主要特点如下:
- 模型结构:XVERSE-13B 使用主流 Decoder-only 的标准 Transformer 网络结构,支持 8K 的上下文长度(Context Length),为同尺寸模型中最长,能满足更长的多轮对话、知识问答与摘要等需求,模型应用场景更广泛。
- 训练数据:构建了 1.4 万亿 token 的高质量、多样化的数据对模型进行充分训练,包含中、英、俄、西等 40 多种语言,通过精细化设置不同类型数据的采样比例,使得中英两种语言表现优异,也能兼顾其他语言效果。
- 分词:基于 BPE(Byte-Pair Encoding)算法,使用上百 GB 语料训练了一个词表大小为 100,278 的分词器,能够同时支持多语言,而无需额外扩展词表。
- 训练框架:自主研发多项关键技术,包括高效算子、显存优化、并行调度策略、数据-计算-通信重叠、平台和框架协同等,让训练效率更高,模型稳定性强,在千卡集群上的峰值算力利用率可达到 58.5%,位居业界前列。
XVERSE表现
验证模型的各项能力,选取多个学科综合能力评测集,包括 MMLU(英文)、 C-Eval(中文)、AGIEval(中英) 、GAOKAO-Bench(中英)、GAOKAO-English(英文),评测结果如下:
XVERSE官网
Github地址:https://github.com/xverse-ai/XVERSE-13B
huggingface:https://huggingface.co/xverse/XVERSE-13B
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容