CASIA OpenIR  > 毕业生  > 博士学位论文
机器人抓取作业的视觉控制研究
其他题名Research on Visual Guided Reach-to-Grasp Movement for Robot
沈扬
学位类型工学博士
导师谭民 ; 徐德
2007-06-08
学位授予单位中国科学院研究生院
学位授予地点中国科学院自动化研究所
学位专业控制理论与控制工程
关键词机器人视觉控制 视觉系统标定 手眼标定 抓取操作控制 仿人形机器人 Robot Visual Control Vision System Calibration Hand-eye Calibration Visual Guided Reach-to-grasp Movement Humanoid Robot
摘要视觉是机器人获取外部环境信息的重要手段,在机器人领域已经得到了广泛应用。利用视觉引导机器人完成操作任务对于提高机器人的环境适应性和智能水平具有重要意义。抓取操作是机器人的一项常见任务,无论是对于结构化环境中的工业机器人,还是能够融入人类生活环境的服务机器人,研究机器人抓取操作的视觉控制方法都具有广泛的应用价值。在利用视觉信息对机器人进行控制时,通常需要对视觉系统进行标定,这对视觉系统的推广和应用带来了不便。因此实现基于自标定和无标定摄像机的视觉测量与机器人控制,对于提高视觉控制机器人系统的适用性具有重要意义。本文针对机器人手眼系统的自标定、视觉测量与控制问题展开研究工作。 第一、提出一种矩形目标特征提取方法,将Hough变换和最小二乘方法结合进行直线拟合,并设计了基于ROI窗口的特征跟踪方法,有效提高了特征提取的精度和鲁棒性。 第二、分别针对单摄像机和双目立体视觉系统,对视觉传感器的测量精度和测量范围进行了分析,讨论了图像噪声和摄像机畸变对视觉系统测量精度的影响,为视觉系统的配置和参数选择提供了理论参考;提出使用误差比例系数和等效旋转矩阵来描述视觉系统的标定误差;针对3自由度视觉控制,根据李亚普洛夫稳定性理论,利用劳斯判据分析了系统的稳定性条件和稳定边界。 第三、提出一种基于主动视觉的机器人手眼标定方法,利用机器人的3次平移运动,实现对机器人手眼关系中旋转部分的标定,该方法不需要预先标定摄像机内参数,且计算简单,便于机器人实现自动标定。误差分析和实验结果表明,标定精度能够满足视觉控制的要求,适合于机器人的视觉控制。 第四、根据机器人趋近运动的特点,给出一种适合于趋近控制的立体视觉测量模型和相应的视觉系统参数估计模型;利用机器人的2次移动完成立体视觉系统参数的在线标定,实现对机器人和目标之间相对位置的测量;通过定义置信度函数提高了标定和测量的精度和鲁棒性。 第五、提出一种基于位置和基于图像的混合视觉控制方法,利用在线标定视觉系统实现对机器人趋近运动的视觉引导,与传统视觉控制方法比较,该方法提高了系统对视觉系统参数的适应性,使得机器人具有较好的移动轨迹和运动效率。 第六、针对工业环境抓取任务,提出一种ETH/EIH结合的视觉控制方法,提高了视觉定位的精度和鲁棒性;设计了层次化视觉控制系统框架,利用此框架结构实现了工业机器人抓取作业系统。 第七、针对仿人形机器人,提出一种混合视觉控制方法,将手臂的视觉控制分为深度方向基于位置的控制和平面方向基于图像的控制;并设计了参考图像坐标的自适应估计方法,实现了仿人形机器人的3自由度抓取操作。 最后,对所取得的研究成果进行了总结,并指出需要继续开展的工作。
其他摘要Vision based control can make the robot to be more robust and flexible to unknown changes in the environment. Generally the most common task for robots is reach-to-grasp task. Calibration of the vision system prevents the extension of the vision system on robots. Self-calibration of the vision system and uncalibrated visual control is more suitable for vision based robots. In this dissertation, some issues concerned with visual guided reach-to-grasp for robots are discussed, including camera calibration, visual measurement and visual control. Firstly, a method for feature extraction of a rectangle is presented. Hough transform and Lease Square Error (LSE) method are employed to fit the edge of the rectangle. A ROI window based tracker was designed to improve the robustness of feature extraction. Secondly, the range and precision of the vision system was analyzed. The influence of the lens distortion was also discussed. The steps for selecting the configure parameters of the vision system for robot control was presented. The calibration error was presented by an error proportional coefficient and an equivalent rotation matrix. With this error model, the stability of the 3DOF visual servo system was analyzed. Thirdly, an active vision based hand-eye calibration method was presented. The rotation part of the robot hand-eye geometry was determined with three translation movement of the manipulator. Sensitivity analysis indicates the calibration precision satisfying the requirement of visual control. Since the calibration can be achieved without knowing the intrinsic parameters of the camera, it is easy to carried out and require less computational efforts. Fourthly, a measurement model about relative position for stereo rig is provided. The stereo parameter was calibrated online with two motions of the robot. The robustness of self-calibration can be improved with the confidence function. Fifth, with the online calibrated vision system, a visual based control law for the approach movement for grasping is provided. Compare to the traditional PBVS and IBVS, the new method improve the flexibility of visual control to the parameters of the vision system. Sixth, a hierarchical framework for visual guided grasping system was designed, and an industrial manipulator grasping system was developed with this framework. With the combination of eye-to-hand/eye-in-hand camera-robot configuration, the reliability and robustness of visual guided grasping can be improved. Seventh, a position based/image based hybrid visual servo method was presented for a humanoid robot. The movement of the arm was divided into two parts: PBVS on Z-axis and IBVS on XY plane. The desired image feature was determined with an adaptive estimation method. The visual guided grasping was achieved with the presented methods. Finally, the obtained research result was summarized and future work is addressed.
馆藏号XWLW1088
其他标识符200418014628042
语种中文
文献类型学位论文
条目标识符http://ir.ia.ac.cn/handle/173211/6009
专题毕业生_博士学位论文
推荐引用方式
GB/T 7714
沈扬. 机器人抓取作业的视觉控制研究[D]. 中国科学院自动化研究所. 中国科学院研究生院,2007.
条目包含的文件
文件名称/大小 文献类型 版本类型 开放类型 使用许可
CASIA_20041801462804(7298KB) 暂不开放CC BY-NC-SA请求全文
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[沈扬]的文章
百度学术
百度学术中相似的文章
[沈扬]的文章
必应学术
必应学术中相似的文章
[沈扬]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。