基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
现有的视频修复方法通常会产生纹理模糊、结构扭曲的内容以及伪影,而将基于图像的修复模型直接应用于视频修复会导致时间上的不一致.从时间角度出发,提出了一种新的用于视频修复的连贯语义时空注意力(Coherent Semantic Spatial-Temporal Attention,CSSTA)网络,通过注意力层,使得模型关注于目标帧被遮挡而相邻帧可见的信息,以获取可见的内容来填充目标帧的孔区域(hole region).CSSTA层不仅可以对孔特征之间的语义相关性进行建模,还能对远距离信息和孔区域之间的远程关联进行建模.为合成语义连贯的孔区域,提出了一种新的损失函数特征损失(Feature Loss)以取代VGG Loss.模型建立在一个双阶段粗到精的编码器-解码器结构上,用于从相邻帧中收集和提炼信息.在YouTube-VOS和DAVIS数据集上的实验结果表明,所提方法几乎实时运行,并且在修复结果、峰值信噪比(PSNR)和结构相似度(SSIM)3个方面均优于3种代表性视频修复方法.
推荐文章
多头注意力与语义视频标注
视频标注
多头注意力
语义信息
基于语义扩展与注意力网络的问题细粒度分类
细粒度分类
依存句法
语义扩展
长短期记忆网络
注意力网络
基于密集层和注意力机制的快速语义分割
语义分割
轻量级网络
分组卷积
密集层
注意力机制
融合注意力机制的移动端人像分割网络
人像分割
注意力机制
轻量化
卷积神经网络
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 用于视频修复的连贯语义时空注意力网络
来源期刊 计算机科学 学科
关键词 视频修复 图像修复 时空注意力 特征损失 VGG Loss
年,卷(期) 2021,(10) 所属期刊栏目 计算机图形学&多媒体|Computer Graphics & Multimedia
研究方向 页码范围 239-245
页数 7页 分类号 TP391.4
字数 语种 中文
DOI 10.11896/jsjkx.200600130
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (10)
共引文献  (33)
参考文献  (8)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(1)
  • 参考文献(1)
  • 二级参考文献(0)
2009(4)
  • 参考文献(1)
  • 二级参考文献(3)
2010(6)
  • 参考文献(1)
  • 二级参考文献(5)
2013(2)
  • 参考文献(2)
  • 二级参考文献(0)
2014(2)
  • 参考文献(2)
  • 二级参考文献(0)
2018(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
视频修复
图像修复
时空注意力
特征损失
VGG Loss
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学
月刊
1002-137X
50-1075/TP
大16开
重庆市渝北区洪湖西路18号
78-68
1974
chi
出版文献量(篇)
18527
总下载数(次)
68
总被引数(次)
150664
论文1v1指导