基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在鹏城云脑Ⅱ上训练了全球首个拥有全开源2000亿参数的自回归中文预训练语言大模型——鹏程·盘古.鹏程·盘古模型基于1.1 TB高质量中文训练数据,采用全场景人工智能计算框架MindSpore自动并行技术实现了五维并行训练策略,从而可将训练任务高效扩展到4096个处理器上.对比实验表明,在少样本或零样本情况下,鹏程·盘古模型在多个中文自然语言理解或生成任务上都具有较优的性能.在此基础上,鹏程·盘古模型在大模型压缩、提示微调学习、多任务学习以及持续学习等方面也取得了很好的应用效果.
推荐文章
回归与时变自回归模型
回归分析
自回归
时间序列
时变序列
预测
LINUX下大规模TCP连接应用编程模型设计
linux
Epoll
TCP大规模连接
任务池
异方差回归与自回归模型
异方差回归分析
异方差回归-自回归模型
时间序列
相关系数平稳序列
预测
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 鹏程·盘古:大规模自回归中文预训练语言模型及应用
来源期刊 中兴通讯技术 学科
关键词 大规模预训练语言模型 鹏城云脑Ⅱ 大规模分布式训练 中文理解与生成 提示微调学习
年,卷(期) 2022,(2) 所属期刊栏目 热点专题|Special Topic
研究方向 页码范围 33-43
页数 11页 分类号
字数 语种 中文
DOI 10.12142/ZTETJ.202202006
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
大规模预训练语言模型
鹏城云脑Ⅱ
大规模分布式训练
中文理解与生成
提示微调学习
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中兴通讯技术
双月刊
1009-6868
34-1228/TN
大16开
合肥市金寨路329号凯旋大厦12楼
1995
chi
出版文献量(篇)
2060
总下载数(次)
1
论文1v1指导