视频中多特征融合人体姿态跟踪

被引:29
作者
马淼 [1 ]
李贻斌 [2 ]
武宪青 [1 ]
高金凤 [1 ]
潘海鹏 [1 ]
机构
[1] 浙江理工大学
[2] 山东大学
基金
浙江省自然科学基金;
关键词
人体姿态跟踪; 视觉目标跟踪; 人机交互; 深度学习网络; 关节点概率图;
D O I
暂无
中图分类号
TP391.41 []; TP18 [人工智能理论];
学科分类号
140502 [人工智能];
摘要
目的目前已有的人体姿态跟踪算法的跟踪精度仍有待提高,特别是对灵活运动的手臂部位的跟踪。为提高人体姿态的跟踪精度,本文首次提出一种将视觉时空信息与深度学习网络相结合的人体姿态跟踪方法。方法在人体姿态跟踪过程中,利用视频时间信息计算出人体目标区域的运动信息,使用运动信息对人体部位姿态模型在帧间传递;考虑到基于图像空间特征的方法对形态较为固定的人体部位如躯干和头部能够较好地检测,而对手臂的检测效果较差,构造并训练一种轻量级的深度学习网络,用于生成人体手臂部位的附加候选样本;利用深度学习网络生成手臂特征一致性概率图,与视频空间信息结合计算得到最优部位姿态,并将各部位重组为完整人体姿态跟踪结果。结果使用两个具有挑战性的人体姿态跟踪数据集Video Pose2.0和You Tube Pose对本文算法进行验证,得到的手臂关节点平均跟踪精度分别为81.4%和84.5%,与现有方法相比有明显提高;此外,通过在VideoPose2.0数据集上的实验,验证了本文提出的对下臂附加采样的算法和手臂特征一致性计算的算法能够有效提高人体姿态关节点的跟踪精度。结论提出的结合时空信息与深度学习网络的人体姿态跟踪方法能够有效提高人体姿态跟踪的精度,特别是对灵活运动的人体姿态下臂关节点的跟踪精度有显著提高。
引用
收藏
页码:1459 / 1472
页数:14
相关论文
共 5 条
[1]
Unsupervised human activity analysis for intelligent mobile robots.[J].Paul Duckworth;David C. Hogg;Anthony G. Cohn.Artificial Intelligence.2019,
[2]
A local-global coupled-layer puppet model for robust online human pose tracking.[J].Miao Ma;Naresh Marturi;Yibin Li;Rustam Stolkin;Ales Leonardis.Computer Vision and Image Understanding.2016,
[3]
SCAPE.[J].Dragomir Anguelov;Praveen Srinivasan;Daphne Koller;Sebastian Thrun;Jim Rodgers;James Davis.ACM Transactions on Graphics (TOG).2005, 3
[4]
Distinctive image features from scale-invariant keypoints [J].
Lowe, DG .
INTERNATIONAL JOURNAL OF COMPUTER VISION, 2004, 60 (02) :91-110
[5]
局部图像描述符最新研究进展 [J].
许允喜 ;
陈方 .
中国图象图形学报, 2015, 20 (09) :1133-1150