《机器人无标定手眼协调》PDF下载

  • 购买积分:10 如何计算积分?
  • 作  者:苏剑波著
  • 出 版 社:北京:电子工业出版社
  • 出版年份:2010
  • ISBN:9787121114342
  • 页数:212 页
图书介绍:本书介绍机器人手眼关系无标定协调控制的研究成果,在总结已有工作的基础上,着重探索针对动态目标任务的手眼反馈控制策略。全书分三篇描述不同的策略,各自独立又相互关联。上篇以图像雅可比矩阵为工具,讨论它在构建机器人图像反馈控制器中的作用;;中篇通过非线性视觉映射模型,将图像特征空间与机器人运动空间联系起来,探讨利用人工神经网络实现映射的视觉控制方法;下篇进一步分析了无标定手眼协调系统内在的非线性映射关系和耦合关系,利用扩张状态观测器在线估计系统总的未建模型动态,在控制器设计中加以补偿。

上篇 Kalman滤波方法 2

第1章 绪论 2

1.1 引言 2

1.2 机器人手眼协调 2

1.2.1 手眼协调技术的历史发展 2

1.2.2 手眼协调系统结构 3

1.3 无标定手眼协调及其控制方法 5

1.3.1 问题的提出 5

1.3.2 传统的无标定方法 5

1.4 本篇的主要工作 6

第2章 基于图像雅可比矩阵的无标定手眼协调 8

2.1 图像雅可比矩阵模型 8

2.2 图像雅可比矩阵的例子 9

2.3 应用图像雅可比矩阵建立视觉反馈控制 10

2.4 基于图像雅可比矩阵的手眼协调系统的性能分析 11

2.5 无标定环境下雅可比矩阵的辨识方法 12

第3章 基于Kalman滤波的雅可比矩阵在线辨识 15

3.1 图像雅可比矩阵的动态辨识 15

3.2 Kalman滤波估计算法概述 15

3.3 图像雅可比矩阵的在线Kalman滤波辨识 16

第4章 眼固定+眼在手上的无标定二维运动跟踪 18

4.1 系统与任务描述 18

4.2 全局视觉的无标定手眼协调控制 19

4.2.1 固定摄像机观察二维运动的图像雅可比矩阵 19

4.2.2 固定眼图像雅可比矩阵的在线Kalman估计 20

4.2.3 固定眼的视觉反馈控制 21

4.3 眼在手上无标定视觉伺服 21

4.3.1 手上摄像机的图像雅可比矩阵 21

4.3.2 眼在手上图像雅可比矩阵的估计 21

4.3.3 眼在手上的视觉反馈控制率 22

4.4 两种反馈控制率的切换 22

4.5 二维运动跟踪仿真 23

第5章 固定双目无标定三维运动跟踪 25

5.1 双目视觉的图像雅可比矩阵 25

5.2 图像雅可比矩阵的在线Kalman-Bucy估计 26

5.3 基于图像雅可比矩阵的反馈控制率 27

5.4 三维运动跟踪仿真 28

第6章 机器人手眼协调实验系统 31

6.1 系统整体结构 31

6.2 机器人本体 32

6.2.1 机器人本体控制器 32

6.2.2 机器人端控制程序 34

6.3 机器人视觉子系统 34

6.3.1 系统构成 34

6.3.2 图像卡程序开发 36

6.3.3 彩色图像处理 39

6.3.4 图像预处理 41

6.3.5 图像特征与目标识别 45

6.4 通信子系统 45

6.4.1 子系统结构与功能 45

6.4.2 系统通信协议设计 46

6.4.3 模块的具体实现 47

第7章 无标定手眼协调运动跟踪实验 50

7.1 眼固定+眼在手上无标定二维运动跟踪实验 50

7.2 无标定三维运动跟踪实验 51

本篇小结 55

参考文献 57

中篇 神经网络方法 62

第8章 绪论 62

8.1 视觉伺服系统分类 62

8.2 视觉处理 63

8.2.1 图像特征 63

8.2.2 视觉估计 63

8.2.3 图像雅可比矩阵 64

8.3 视觉控制器 65

8.4 无标定手眼协调 66

8.5 本篇主要工作 67

第9章 基于神经网络的图像雅可比矩阵估计方法 69

9.1 图像雅可比矩阵方法原理 69

9.2 神经网络方法原理 71

9.3 图像雅可比矩阵分析 72

9.4 改进的图像雅可比矩阵方法 74

9.5 仿真结果 76

第10章 眼固定机器人平面视觉跟踪 78

10.1 平面视觉跟踪问题描述 79

10.2 视觉映射模型 79

10.3 控制策略 80

10.3.1 实时运动规划 81

10.3.2 神经网络映射器 81

10.3.3 仿真结果 82

10.4 基于在线自学习的视觉跟踪 86

10.4.1 小脑模型神经网络 86

10.4.2 仿真结果 88

第11章 眼固定机器人三维视觉跟踪 90

11.1 基于立体视觉的3D视觉跟踪 90

11.1.1 问题描述 90

11.1.2 基于融合方程的视觉跟踪方法 90

11.1.3 视觉映射模型 91

11.1.4 控制策略 93

11.1.5 仿真结果 94

11.2 基于单摄像机的三维视觉跟踪 96

11.2.1 问题描述 96

11.2.2 视觉映射模型 97

11.2.3 控制策略 98

11.2.4 仿真结果 98

第12章 眼在手上机器人平动视觉跟踪 100

12.1 眼在手上无标定方法的现状 100

12.2 机器人平面视觉跟踪 101

12.2.1 问题描述 101

12.2.2 眼在手上机器人视觉跟踪问题分析 102

12.2.3 视觉映射关系模型 104

12.2.4 控制策略 105

12.2.5 仿真结果 107

12.2.6 视觉定位问题 111

12.3 基于立体视觉的3-DOF无标定视觉跟踪 112

12.3.1 视觉映射关系模型 113

12.3.2 控制策略 115

12.3.3 仿真结果 117

第13章 眼在手上机器人全自由度视觉跟踪 120

13.1 全自由度视觉跟踪问题描述 120

13.2 全自由度视觉跟踪问题分析 121

13.3 视觉映射关系模型 122

13.4 控制策略 123

13.5 模糊神经网络 124

13.5.1 模糊系统与神经网络的比较 124

13.5.2 一种新的模糊神经网络 125

13.6 仿真结果 128

第14章 视觉跟踪系统的性能分析与改进 131

14.1 动态视觉控制与运动视觉控制 131

14.2 眼固定构型 132

14.2.1 系统离散域模型 132

14.2.2 跟踪误差分析 133

14.2.3 控制系统稳定性 134

14.2.4 速度前馈控制器 136

14.3 眼在手上构型平面视觉跟踪 138

14.3.1 系统离散域模型 138

14.3.2 跟踪误差分析 139

14.3.3 控制系统稳定性 140

14.3.4 加速度前馈控制器 142

14.4 眼固定构型与眼在手上构型的比较 144

第15章 实验研究 145

15.1 系统结构 145

15.1.1 机器人及其控制器 145

15.1.2 CCD摄像机 146

15.1.3 图像采集卡 146

15.2 实验设计 147

15.3 实验步骤 149

15.4 实验结果 149

本篇小结 155

参考文献 156

下篇 扩张状态观测器方法 162

第16章 绪论 162

16.1 引言 162

16.2 本篇主要工作 162

第17章 基于扩张状态观测的控制器理论及参数调整 164

17.1 扩张状态观测器 164

17.2 传统PID控制器结构分析 165

17.3 自抗扰控制器 165

17.3.1 非线性跟踪微分器 166

17.3.2 非线性状态误差反馈控制律(NLSEF) 167

17.3.3 自抗扰控制器(ADRC)实现形式 168

17.3.4 自抗扰控制器适用对象 169

17.4 自抗扰控制器的参数调整 170

第18章 手眼协调系统建模及ADRC控制器设计 174

18.1 系统建模 174

18.1.1 摄像机模型 174

18.1.2 摄像机参数 175

18.2 系统模型 176

18.3 控制器设计 177

第19章 系统仿真研究 181

19.1 全局固定摄像头无标定二维运动跟踪 181

19.2 眼固定与眼在手上相结合的无标定二维运动跟踪 184

19.3 固定双目无标定三维运动跟踪 188

第20章 手眼协调控制器的稳定性分析 190

20.1 全局固定单眼构型情况下控制器形式 190

20.2 一阶跟踪微分器的收敛性分析 190

20.3 二阶扩张状态观测器的收敛性分析 191

20.4 整个控制器的收敛性能分析 195

第21章 无标定机器人手眼协调实验研究 196

21.1 机器人手眼协调实验系统描述 196

21.1.1 机器人子系统 197

21.1.2 机器人视觉子系统 197

21.2 单眼固定无标定二维运动跟踪试验 198

21.3 眼固定与眼在手上相结合的无标定二维手眼协调实验 199

21.4 无标定三维手眼协调实验 202

第22章 自抗扰控制器和雅可比矩阵在线辨识联合控制的手眼协调研究 205

22.1 控制思想描述 205

22.2 控制器设计 205

22.3 仿真研究 206

22.4 二维跟踪实验 207

本篇小结 209

参考文献 211