CASIA OpenIR  > 模式识别国家重点实验室  > 机器人视觉
融合描述式和判别式建模的目标跟踪方法
唐明; 张静
2009-12-09
公开日期2010-07-14
授权国家CN
专利类型发明
摘要本发明公开一种融合描述式和判别式建模的目标跟踪方法,包括以下步骤:1.t=1,在第1帧图像中的被跟踪目标及其邻近背景上随机抽取多尺度小图像块集合并训练两对二类支持向量机和一类支持向量机作为被跟踪目标的模型;2.在第t+1帧图像中随机抽取多尺度小图像块集合并通过被跟踪目标的模型确定第t+1帧图像中小图像块属于被跟踪目标的置信度,用新一帧图像中小图像块的置信度及其中心坐标构造置信图;在置信图上用均值移动算法获得被跟踪目标在新一帧图像中的新位置;根据图像块置信度和被跟踪目标的新位置,对当前帧中的小图像块分类,并根据分类结果更新被跟踪目标的模型;3.若未到视频文件的结尾,递增t,返回步骤2;4.终止。
专利号CN200910242339.1
专利状态授权
文献类型专利
条目标识符http://ir.ia.ac.cn/handle/173211/8417
专题模式识别国家重点实验室_机器人视觉
作者单位中国科学院自动化研究所
推荐引用方式
GB/T 7714
唐明,张静. 融合描述式和判别式建模的目标跟踪方法. CN200910242339.1[P]. 2009-12-09.
条目包含的文件
条目无相关文件。
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[唐明]的文章
[张静]的文章
百度学术
百度学术中相似的文章
[唐明]的文章
[张静]的文章
必应学术
必应学术中相似的文章
[唐明]的文章
[张静]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。