CASIA OpenIR  > 毕业生  > 硕士学位论文
基于运动粗分类的双模型背景建模与目标检测方法研究
其他题名Motion coarse classification-based bi-model background modeling and object detection approach
张水发
学位类型工学硕士
导师张文生
2010-05-23
学位授予单位中国科学院研究生院
学位授予地点中国科学院自动化研究所
学位专业计算机应用技术
关键词运动检测 背景建模 光流法 双模型 背景减除法 Motion Detection Background Modeling Optical Flow Approach Bi-model Background Subtraction
摘要运动目标检测是对目标的分类、跟踪及行为理解等后期处理有非常重要的意义,是安全监控、视频会议及基于内容图像存储与检索等领域的基础。实际场景中,背景受光照、天气等因素影响,不能保证完全静止,使目标检测成为一项相当困难的工作,是目前计算机视觉研究的难点和热点问题之一。国内外学者广泛采用背景减除法和光流法,前者基本能满足运算实时要求,但不能准确描述背景运动。后者能准确描述背景运动,但不能满足实时性要求,并且受噪声影响较大。论文通过研究智能监控系统中的运动目标检测算法,在前人研究成果的基础上创造性的把光流法引入背景建模,提出一种快速有效的背景建模与目标检测方法及其更新机制,并在此基础上做进一步的研究改进。 论文的工作主要由三部分组成:算法研究、新背景建模与目标检测方法的提出、改进及仿真实验和背景更新机制。 复杂环境中的目标检测主要存在准确性、鲁棒性和实时性三方面的问题,论文在国内外研究的基础上,提出新的目标检测方法。主要的工作和贡献: (1)由于复杂场景中存在大量背景运动,用灰度背景模型不能很好的描述,论文把光流法引入背景建模,建立光流速度场背景模型准确描述背景运动。 (2)考虑场景中有的像素灰度变化不大,用均值背景模型就能很好的描述,有的像素灰度变化大,则建立光流速度背景模型。论文提出区分静止背景和运动背景并建立不同背景模型的方法。建立均值背景模型描述静止背景,建立光流速度场背景模型描述运动背景。这种双模型建模方法具有光流速度场背景模型准确描述背景运动的特点,又有均值背景模型快速的特点,与之前建立单一背景模型的方法在抑制噪声和时间复杂度方面都有了提高。 (3)运动背景中有的像素灰度变化相对较小,有的像素灰度变化较大,可以建立灰度背景模型描述灰度变化较小部分,建立光流速度场背景模型描述灰度快速变化部分。实验结果表明,这种为一个像素建立两种背景模型的方法能在保证检测效果的同时,进一步减少光流速度的计算次数,从而达到减少建模与检测时间的目的。
其他摘要Motion object detecting is a process of extracting interesting object from series frames. Extracting motion object efficiency is important to object classification, tracking and active understanding, which is the base of visual surveillance, visual meeting, image understanding and so on. In true scene, because the infection of illumination changes, weather variation, background motion always exist in scene, which results of background and foreground motion both exist in series frames at the same time, which make motion object detecting difficult, and meantime it is a hot question in computer vision and image understanding at present. Aim at this question, scholars from home and abroad use background subtraction approach and optical flow approach. Background subtraction approach can compute real-time, but can't express motion background well. While optical flow approach can express motion background well, but can't detection real-time. This paper focus on motion object detecting algorithms research and propose a new background modeling and motion object detecting approach through introduce optical flow into background modeling creationary and update scheme. This paper consists of three parts: research algorithms, propose a new background modeling and motion object detecting approach, improvement and simulation results and update scheme. Object detection problems in complex environment can be categorized into three classes: accuracy, robustness and real-time. Based on the research state of home and aboard, the paper proposes new object detection approaches. Overall, the work and contributions are the following: (1)Because of background motion, gray-based background model can’t express background well. In this paper, we introduce optical flow into background modeling and construct optical flow-based background model. (2)Gray-based background model can express the pixel which gray variation little, while optical flow-based background model is necessary for the ones which gray variation much. The paper proposes distinguish static background from motion ones, and constructs gray-based background model for the static ones, while optical flow-based background model for the motion ones, forming bi-model background modeling approach. The new modeling approach is more accuracy and real-time then previous approach. (3)Some pixels in motion background variation little relatively, while the other ones variation much. We propose construct gray-based backgr...
馆藏号XWLW1563
其他标识符200728017029276
语种中文
文献类型学位论文
条目标识符http://ir.ia.ac.cn/handle/173211/7536
专题毕业生_硕士学位论文
推荐引用方式
GB/T 7714
张水发. 基于运动粗分类的双模型背景建模与目标检测方法研究[D]. 中国科学院自动化研究所. 中国科学院研究生院,2010.
条目包含的文件
文件名称/大小 文献类型 版本类型 开放类型 使用许可
CASIA_20072801702927(2321KB) 暂不开放CC BY-NC-SA请求全文
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[张水发]的文章
百度学术
百度学术中相似的文章
[张水发]的文章
必应学术
必应学术中相似的文章
[张水发]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。