基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
使用固定时间间隔取帧的方式用于视频标题生成,易导致多种静态或动态信息丢失,使得生成的句子质量难以提高.针对这一问题,提出了一种使用密集帧率采样的标题生成方法(dense frame rate sampling based captioning model,DFS-CM),将视频分为多个长度统一的片段,提取片段中所有视频帧的深度CNN (convolutional neural network)特征,然后使用均值或最大值方法,降低了特征数量,增强了特征的稀疏程度;同时,还改善了模型的训练策略,增强了模型的稳定性和泛化能力.最后在S2VT框架的基础上,使用GoogLeNet和ResNet-152两种CNN模型,对所提方法进行了验证.在Youtube2Text数据集上的实验结果表明,无论是采用均值特征还是最大值特征,其模型性能与基准模型相比均得到了改善,尤其是使用ResNet-152和最大值方式,其B@4和CIDEr分别达到了47.1%和34.1%.
推荐文章
使用 PSNR 周期特性检测视频帧率上转伪造
视频帧率上转
运动补偿
峰值信噪比
视频被动取证
基于视频摘要生成技术的研究
新闻视频
视摘要
字幕探测档
基于卷积网络的帧率提升算法研究
卷积神经网络
帧率提升
自学习
一种快速新闻视频标题字幕探测与定位方法
新闻视频
标题字幕:字幕探测与定位
边缘检测
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 密集帧率采样的视频标题生成
来源期刊 计算机科学与探索 学科 工学
关键词 视频 标题生成 GoogLeNet ResNet 长短时记忆(LSTM) 密集帧率采样
年,卷(期) 2018,(6) 所属期刊栏目 人工智能与模式识别
研究方向 页码范围 981-993
页数 13页 分类号 TP391
字数 10612字 语种 中文
DOI 10.3778/j.issn.1673-9418.1705058
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (6)
节点文献
引证文献  (1)
同被引文献  (0)
二级引证文献  (0)
1994(1)
  • 参考文献(1)
  • 二级参考文献(0)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
1998(1)
  • 参考文献(1)
  • 二级参考文献(0)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(2)
  • 参考文献(2)
  • 二级参考文献(0)
2018(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2019(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
视频
标题生成
GoogLeNet
ResNet
长短时记忆(LSTM)
密集帧率采样
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学与探索
月刊
1673-9418
11-5602/TP
大16开
北京市海淀区北四环中路211号北京619信箱26分箱
82-560
2007
chi
出版文献量(篇)
2215
总下载数(次)
4
总被引数(次)
10748
论文1v1指导