目录 1
第1章 绪论 1
1.1 问题的提出 1
1.2 研究历史与现状 3
1.2.1 Marr视觉理论 3
1.2.2 DARPA视觉导航 5
1.2.3 障碍物检测 10
1.2.4 全方位视觉和全景视觉 11
1.2.5 图像镶嵌和运动分层表示 15
1.3 论文工作 19
1.3.1 概述 19
1.3.2 论文的主要贡献 21
1.3.3 论文的结构 22
第2章 场景的全景图像建模 24
2.1 引言 24
2.2 车体运动模型 26
2.3 运动滤波和图像稳定 28
2.3.1 运动矢量估计和运动参数计算 29
2.3.2 帧间运动分解和图像预校正 29
2.3.3 运动滤波和图像稳定 32
2.3.4 全景图像和外极面图像生成 37
2.4 全景外极面图像分析方法 41
2.4.1 运动纹理模型和运动遮挡模型 42
2.4.2 大窗口方向检测算子GFOD 46
2.4.3 全景外极面图像深度估计方法 50
2.5 全景图像建模过程和表示 59
2.5.1 图像初始校正和图像稳定 60
2.5.2 运动纹理方向估计和运动边界定位 62
2.5.3 运动和形状的融合 62
2.5.4 深度估计结果分析 64
2.5.5 分层表示 67
2.6 3D全景模型的应用 71
2.6.1 任意视角图像的合成 71
2.6.2 选择机器人定位的显著路标 73
2.7 总结和讨论 73
2.7.1 全景建模方法的优点 73
2.7.2 方法和算法的意义 74
2.7.3 进一步的工作 75
第3章 道路的全方位图像建模 76
3.1 引言 76
3.2 基于全方位图像的特征空间表示方法 78
3.2.1 问题的描述 79
3.2.2 特征图像表示 80
3.2.3 全方位视图特征空间表示的问题 82
3.3 实时全方位成像 83
3.3.1 原理系统几何 83
3.3.2 实际成像系统 85
3.3.3 系统标定 88
3.3.4 地面投影图像 88
3.3.5 图像校正 90
3.3.6 极坐标图像的路面特征分析 91
3.4 全方位图像的旋转不变性特征空间表示 94
3.4.1 沿径向的主分量分析 95
3.4.2 沿角度方向的Fourier变换 96
3.4.3 旋转角度估计 98
3.5 基于全方位图像的神经元网络模型 100
3.5.1 问题的描述 100
3.5.2 模型表示 101
3.5.3 具体问题 102
3.6 实验结果和分析 104
3.6.1 实验系统结构 104
3.6.2 数据采集 107
3.6.3 训练和测试 110
3.7 总结和讨论 113
第4章 障碍物的双目注视图像建模 115
4.1 引言 115
4.2 平面重投影变换原理 116
4.2.1 原理 117
4.2.2 性质 119
4.2.3 意义 121
4.3 单摄像机双目成像系统 126
4.3.1 左右图像双目成像装置 126
4.3.2 上下图像双目成像装置 132
4.4 实时双目障碍物检测算法 134
4.4.1 目标和基本假设 135
4.4.2 算法原理分析 136
4.4.3 基本算法 142
4.4.4 算法实现及性能分析 143
4.5 动态重投影变换 146
4.5.1 迭代的方法 147
4.5.2 图像稳定的方法 148
4.5.3 广义HOUGH变换的方法 149
4.6 总结和讨论 153
第5章 多尺度全视野视觉集成 155
5.1 “分解-综合”的视觉导航策略 155
5.2 集成视觉传感器POST 160
5.3 数据融合 162
5.4 导航工作模式的初步讨论 166
结束语 168
附录1 运动模型的扩展 175
附录 175
附录2 图像稳定实验分析 179
附录3 运动遮挡的能量模型的证明 191
附录4 GFOD快速算法 192
附录5 全方位成像几何 193
附录6 柱面投影分析 194
附录7 式(4.8)的重投影变换几何 195
附录8 式(4.9)和(4.10)重投影视差关系的证明 196
附录9 差值和视差的关系 196
附录10 障碍物检测性能分析 197
博士论文期间及后续工作中的研究成果和发表的学术论文 205
参考文献 215