基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对卷积神经网络推理阶段的高性能需求与边缘设备的性能限制导致的推理实时性问题,利用软硬件协同设计的思想,采用DPU实现了CNN的推理加速,提高计算性能的同时降低了推理时间.首先搭建了基于DPU加速器的硬件与软件平台,其次为了降低CNN模型的存储体积和计算量,对模型的数据进行量化与预编译处理,最后使用DPU对ResNet50进行了加速测试.在单次推理测试中,DPU的运算性能为76.43GOPS,平均负载为73%,耗时100.88ms,与CPU相比推理速度提升了40.48倍.在多次推理过程中,两次推理之间间隔最长为746.343ms,最短为418.776ms,DPU的平均调度效率为21.88%.经过数据定点处理的模型Top1加Top2的精度为92.61%,与未处理的模型相比,精度丢失仅为1.9%.
推荐文章
基于模糊推理规则的注射制品缺陷修正系统设计与实现
注射成型
模糊推理
缺陷修正
修正系数
基于BIP框架的DPU系统建模与验证
数据处理单元
行为—交互—优先级框架
形式化方法
建模
验证
基于加速度的车祸报警系统设计与实现
MMA7455
三轴加速度传感器
TC35
STC89C52RC
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于DPU加速的CNN推理系统设计与实现
来源期刊 电脑编程技巧与维护 学科
关键词 DPU系统 卷积神经网络 硬件加速器 软硬件协同设计
年,卷(期) 2021,(6) 所属期刊栏目 软件研发与应用
研究方向 页码范围 13-16,48
页数 5页 分类号
字数 语种 中文
DOI 10.3969/j.issn.1006-4052.2021.06.003
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (1)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
DPU系统
卷积神经网络
硬件加速器
软硬件协同设计
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
电脑编程技巧与维护
月刊
1006-4052
11-3411/TP
大16开
北京市海淀区长春桥路5号六号楼1209室
82-715
1994
chi
出版文献量(篇)
14554
总下载数(次)
80
总被引数(次)
25630
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导