钛学术
文献服务平台
学术出版新技术应用与公共服务实验室出品
首页
论文降重
免费查重
学术期刊
学术导航
任务中心
论文润色
登录
文献导航
学科分类
>
综合
工业技术
科教文艺
医药卫生
基础科学
经济财经
社会科学
农业科学
哲学政法
社会科学II
哲学与人文科学
社会科学I
经济与管理科学
工程科技I
工程科技II
医药卫生科技
信息科技
农业科技
数据库索引
>
中国科学引文数据库
工程索引(美)
日本科学技术振兴机构数据库(日)
文摘杂志(俄)
科学文摘(英)
化学文摘(美)
中国科技论文统计与引文分析数据库
中文社会科学引文索引
科学引文索引(美)
中文核心期刊
cscd
ei
jst
aj
sa
ca
cstpcd
cssci
sci
cpku
默认
篇关摘
篇名
关键词
摘要
全文
作者
作者单位
基金
分类号
搜索文章
搜索思路
钛学术文献服务平台
\
学术期刊
\
工业技术期刊
\
自动化技术与计算机技术期刊
\
计算机技术与发展期刊
\
基于改进和积网络的双人交互行为识别
基于改进和积网络的双人交互行为识别
作者:
刘园
陈昌红
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取
双人交互行为识别
神经网络
独立子空间分析
和积网咯
结构学习算法
摘要:
受到视角变化、相机移动、尺度、光线、遮挡等因素的影响,双人交互行为识别的效果往往不太理想.有效地提取特征和合理地建立交互模型是双人交互行为识别与理解的两个重要研究内容.基于深度学习的思想,直接在三维空间中构建多层神经网络,使用两层卷积叠加独立子空间分析网络提取视频的时空特征.在此基础上,提出了一种基于改进和积网络(sum product networks,SPNs)的双人行为识别算法.通过改进后的LearnSPN结构学习算法学习和积网络的结构和权重,在训练过程中对数据集进行实例划分或者变量划分直至满足划分结束条件,从而实现对双人交互行为的分类.该方法在UT、BIT-Interaction和TV-human交互数据库上进行测试,实验结果证明了该方法对双人交互行为识别的有效性,尤其对背景复杂的TV-human交互数据库效果更好.
暂无资源
收藏
引用
分享
推荐文章
基于关键帧的交互行为识别
Kinect传感器
空间信息
交互行为识别
关键帧
动态时间规整
基于整体和个体分割融合的双人交互行为识别
交互行为
局部特征
视觉共生矩阵
深度特征
YOLO
决策级融合
基于双流卷积神经网络的改进人体行为识别算法
人体行为识别
深度学习
双流卷积神经网络
模型融合
分层结构的双人交互行为识别方法
计算机视觉
交互动作
动作识别
方向梯度直方图
分层模型
最近邻分类器
UT-interaction数据库
加权融合
内容分析
文献信息
引文网络
相关学者/机构
相关基金
期刊文献
内容分析
关键词云
关键词热度
相关文献总数
(/次)
(/年)
文献信息
篇名
基于改进和积网络的双人交互行为识别
来源期刊
计算机技术与发展
学科
工学
关键词
双人交互行为识别
神经网络
独立子空间分析
和积网咯
结构学习算法
年,卷(期)
2019,(10)
所属期刊栏目
智能、算法、系统工程
研究方向
页码范围
157-163
页数
7页
分类号
TN911.73
字数
5984字
语种
中文
DOI
10.3969/j.issn.1673-629X.2019.10.031
五维指标
作者信息
序号
姓名
单位
发文数
被引次数
H指数
G指数
1
陈昌红
南京邮电大学通信与信息工程学院
20
88
5.0
8.0
2
刘园
南京邮电大学通信与信息工程学院
1
0
0.0
0.0
传播情况
被引次数趋势
(/次)
(/年)
引文网络
引文网络
二级参考文献
(35)
共引文献
(14)
参考文献
(13)
节点文献
引证文献
(0)
同被引文献
(0)
二级引证文献
(0)
1999(1)
参考文献(0)
二级参考文献(1)
2004(1)
参考文献(0)
二级参考文献(1)
2005(1)
参考文献(0)
二级参考文献(1)
2008(2)
参考文献(0)
二级参考文献(2)
2010(4)
参考文献(0)
二级参考文献(4)
2011(2)
参考文献(0)
二级参考文献(2)
2012(4)
参考文献(0)
二级参考文献(4)
2013(3)
参考文献(1)
二级参考文献(2)
2014(12)
参考文献(2)
二级参考文献(10)
2015(4)
参考文献(2)
二级参考文献(2)
2016(9)
参考文献(4)
二级参考文献(5)
2017(4)
参考文献(3)
二级参考文献(1)
2018(1)
参考文献(1)
二级参考文献(0)
2019(0)
参考文献(0)
二级参考文献(0)
引证文献(0)
二级引证文献(0)
研究主题发展历程
节点文献
双人交互行为识别
神经网络
独立子空间分析
和积网咯
结构学习算法
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机技术与发展
主办单位:
陕西省计算机学会
出版周期:
月刊
ISSN:
1673-629X
CN:
61-1450/TP
开本:
大16开
出版地:
西安市雁塔路南段99号
邮发代号:
52-127
创刊时间:
1991
语种:
chi
出版文献量(篇)
12927
总下载数(次)
40
总被引数(次)
111596
相关基金
国家自然科学基金
英文译名:
the National Natural Science Foundation of China
官方网址:
http://www.nsfc.gov.cn/
项目类型:
青年科学基金项目(面上项目)
学科类型:
数理科学
期刊文献
相关文献
1.
基于关键帧的交互行为识别
2.
基于整体和个体分割融合的双人交互行为识别
3.
基于双流卷积神经网络的改进人体行为识别算法
4.
分层结构的双人交互行为识别方法
5.
多源信息融合的双人交互行为识别算法研究
6.
基于姿态转换网络的行为识别
7.
基于BSN识别双人交互动作方法的研究
8.
基于改进卷积神经网络的手势识别
9.
基于RBF神经网络的Android恶意行为识别
10.
基于滑动窗特征融合的深信度网络驾驶行为识别
11.
网络教学交互中教师的行为角色分析
12.
基于改进DeepLab网络的道路场景识别
13.
基于加速度传感器和神经网络的人体活动行为识别
14.
基于多通道信息融合的双人交互动作识别算法
15.
基于Hadoop的网络行为大数据安全实体识别系统设计
推荐文献
钛学术
文献服务平台
学术出版新技术应用与公共服务实验室出品
首页
论文降重
免费查重
学术期刊
学术导航
任务中心
论文润色
登录
根据相关规定,获取原文需跳转至原文服务方进行注册认证身份信息
完成下面三个步骤操作后即可获取文献,阅读后请
点击下方页面【继续获取】按钮
钛学术
文献服务平台
学术出版新技术应用与公共服务实验室出品
原文合作方
继续获取
获取文献流程
1.访问原文合作方请等待几秒系统会自动跳转至登录页,首次访问请先注册账号,填写基本信息后,点击【注册】
2.注册后进行实名认证,实名认证成功后点击【返回】
3.检查邮箱地址是否正确,若错误或未填写请填写正确邮箱地址,点击【确认支付】完成获取,文献将在1小时内发送至您的邮箱
*若已注册过原文合作方账号的用户,可跳过上述操作,直接登录后获取原文即可
点击
【获取原文】
按钮,跳转至合作网站。
首次获取需要在合作网站
进行注册。
注册并实名认证,认证后点击
【返回】按钮。
确认邮箱信息,点击
【确认支付】
, 订单将在一小时内发送至您的邮箱。
*
若已经注册过合作网站账号,请忽略第二、三步,直接登录即可。
期刊分类
期刊(年)
期刊(期)
期刊推荐
一般工业技术
交通运输
军事科技
冶金工业
动力工程
化学工业
原子能技术
大学学报
建筑科学
无线电电子学与电信技术
机械与仪表工业
水利工程
环境科学与安全科学
电工技术
石油与天然气工业
矿业工程
自动化技术与计算机技术
航空航天
轻工业与手工业
金属学与金属工艺
计算机技术与发展2022
计算机技术与发展2021
计算机技术与发展2020
计算机技术与发展2019
计算机技术与发展2018
计算机技术与发展2017
计算机技术与发展2016
计算机技术与发展2015
计算机技术与发展2014
计算机技术与发展2013
计算机技术与发展2012
计算机技术与发展2011
计算机技术与发展2010
计算机技术与发展2009
计算机技术与发展2008
计算机技术与发展2007
计算机技术与发展2006
计算机技术与发展2005
计算机技术与发展2004
计算机技术与发展2003
计算机技术与发展2002
计算机技术与发展2001
计算机技术与发展2019年第9期
计算机技术与发展2019年第8期
计算机技术与发展2019年第7期
计算机技术与发展2019年第6期
计算机技术与发展2019年第5期
计算机技术与发展2019年第4期
计算机技术与发展2019年第3期
计算机技术与发展2019年第2期
计算机技术与发展2019年第12期
计算机技术与发展2019年第11期
计算机技术与发展2019年第10期
计算机技术与发展2019年第1期
关于我们
用户协议
隐私政策
知识产权保护
期刊导航
免费查重
论文知识
钛学术官网
按字母查找期刊:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他
联系合作 广告推广: shenyukuan@paperpass.com
京ICP备2021016839号
营业执照
版物经营许可证:新出发 京零 字第 朝220126号