基于图像处理的混合交通流行人和非机动车数据采集理论与方法

被引:0
作者
赵熠
机构
[1] 北京交通大学
关键词
混合交通流; 图像处理; 数据采集框架; 数学形态学; 背景提取; 噪声抑制; 模糊匹配; Kalman滤波; 特征提取; BP神经网络;
D O I
暂无
年度学位
2008
学位类型
博士
导师
摘要
在我国城市道路混合交通中,行人和非机动车对机动车的行驶产生很大影响。这种影响不但威胁道路交通安全,还导致了延误的增加和通行能力的下降。如何通过交通管理控制手段科学管理行人和非机动车交通,有效提高城市路网尤其是道路交叉口的通行能力,减少出行者的出行时间,提高出行者的出行安全,成为当今我国城市交通所面临的首要问题之一。因此,越来越多的智能交通控制系统被开发和应用在实际交通管理与控制中。作为智能交通系统的首要元素,交通信息采集设施在智能交通诸多系统中起着极为关键的作用。 由以上分析可以看到,采集混合交通流中不同类型交通对象的流量数据,从而更有针对性地分析我国混合交通的情况,能够为交通基础设施的建设规划、管理和评价工作提供有效的理论依据。本论文围绕图像处理技术,以混合交通流中的行人和非机动车为研究对象,对以下几个方面的内容进行了深入研究: (1)首先分析和总结现有交通流量采集系统的发展模式和国内外现有视频图像采集的主要理论和方法,并分析使用这些视频图像处理方法进行混合交通流数据采集时的缺陷。在此基础上,详细阐述本论文图像处理方法为包含:对象检测、对象跟踪、特征提取、对象识别四个模块的混合交通流数据采集的框架模型。 (2)考虑到实际交通场景中获得可靠的背景图像比较困难,本论文在图像平均模型、中值滤波模型和高斯混合模型的基础上,利用数学形态学的方法建立自适应的背景提取模型,该模型能够对背景图像进行更精确的提取,而且能更完整的保存原始图像的信息。实例检验表明,本模型的提取精度均远高于上述三种模型,其提取速度也能够满足实时处理的需求。此外,本模型在提取背景图像的同时,还能够针对环境光线变化实时调整采集图像的亮度,保证从不同的图像帧中提取到背景像素的亮度水平相近,更为贴近实际情况。 (3)在运动对象检测部分,考虑多种技术来提高算法的鲁棒性,包括:自适应阈值的选取;基于邻域信息、光强信息和色彩信息的噪声抑制技术等内容。其中,利用邻域信息能够有效消除系统噪声干扰;利用光强信息和颜色信息能够有效消除自然噪声干扰。 (4)对运动对象跟踪,针对混合交通流中经常出现的遮挡、重叠、聚集、消散等情况,提出基于模糊匹配的KF(Kalman Filter)跟踪模型。该模型参考了Kalman滤波的预测值,利用模糊的方法与当前图像中的检测值进行匹配。该方法能够保证前景物体在被遮挡时或实验数据缺失,及相互间遮挡的情况下,仍能准确跟踪运动物体的移动轨迹,从而能够更好的处理混合交通对象的跟踪问题。 (5)在分析行人和非机动车的二值图像的基础上,本论文中将运动对象的像素分布特征和二值图像的形态特征综合考虑,将二者联合的特征向量作为BP神经网络的输入向量,显著提高了检测的精度。
引用
收藏
页数:124
共 62 条
[1]
基于实时数据的道路网短时交通流预测理论与方法研究 [D]. 
姚智胜 .
北京交通大学,
2007
[2]
城市交通与土地利用相互关系的基础理论与方法研究 [D]. 
杨励雅 .
北京交通大学,
2007
[3]
基于模糊理论的交通信息处理技术研究 [D]. 
戴红 .
吉林大学,
2007
[4]
单目视频人体运动跟踪和获取技术研究 [D]. 
陈坚 .
中国科学院研究生院(软件研究所),
2005
[5]
车辆视频检测与跟踪系统的研究与实现 [D]. 
杨清夙 .
四川大学,
2004
[6]
车辆视频检测与跟踪系统的算法研究 [D]. 
张丽 .
浙江大学,
2003
[7]
视频检测技术在智能交通系统中的应用研究 [D]. 
朱辉 .
长安大学,
2002
[8]
Object tracking.[J].Alper Yilmaz;Omar Javed;Mubarak Shah.ACM Computing Surveys (CSUR).2006, 4
[9]
Temporal spatio-velocity transform and its application to tracking and interaction [J].
Sato, K ;
Aggarwal, JK .
COMPUTER VISION AND IMAGE UNDERSTANDING, 2004, 96 (02) :100-128
[10]
Neural-edge-based vehicle detection and traffic parameter extraction [J].
Ha, DM ;
Lee, JM ;
Kim, YD .
IMAGE AND VISION COMPUTING, 2004, 22 (11) :899-907