第1章 绪论 1
1.1 人类视觉的研究 1
1.1.1 人类视觉成像原理 1
1.1.2 视觉信息的产生 2
1.1.3 视觉信息的传递 2
1.1.4 视感觉信息的处理 3
1.1.5 视知觉信息的处理 3
1.1.6 人类视觉的认知过程 4
1.1.7 视觉注意机制研究 4
1.2 计算机视觉技术 6
1.2.1 马尔的视觉计算理论框架 6
1.2.2 多视几何立体感知 6
1.3 多源信息融合技术 8
1.3.1 多传感器信息融合的优势 8
1.3.2 信息融合方法 8
1.4 基于深度学习的智能感知技术 9
1.4.1 人工智能的发展历程 9
1.4.2 基于大数据的深度学习方法 11
第2章 摄像机标定 14
2.1 概述 14
2.2 摄像机模型 15
2.3 标定算法 17
2.3.1 预标定图像的尺度因子 18
2.3.2 确定相机中心 18
2.3.3 标定其他摄像机参数 20
2.4 实验结果 22
2.4.1 图像的校正效果实验 22
2.4.2 标定参数的精度验算 23
第3章 视觉跟踪 26
3.1 视觉跟踪算法的原理 26
3.2 视觉跟踪研究框架 28
3.2.1 统计方法在视觉跟踪中的研究现状 28
3.2.2 由下向上的研究方法 29
3.2.3 由上向下的研究方法 30
3.3 Mean shift视觉跟踪算法 35
3.3.1 颜色特征统计方法 35
3.3.2 目标模型的表示 35
3.3.3 候选模型的表示 36
3.3.4 基于Bhattacharyya系数的相似性度量 36
3.3.5 核密度梯度估计 38
3.3.6 Mean shift算法的计算复杂度分析 39
3.3.7 Mean shift迭代求解局部最优值的性能分析 40
3.3.8 实验结果 41
3.4 基于Bhattacharyya系数由粗到精的核匹配搜索方法 44
3.4.1 由粗到精的核匹配搜索算法原理 44
3.4.2 实验结果 46
3.5 基于统计特征最大后验概率的视觉跟踪算法 48
3.5.1 视觉跟踪中图像匹配问题的描述 49
3.5.2 图像特征分析 50
3.5.3 最大后验概率指标 51
3.5.4 最大后验概率指标分析 52
3.5.5 最大后验概率指标的主要特点 52
3.5.6 算法计算复杂度分析 54
3.5.7 算法性能分析 55
3.5.8 实验结果 55
3.6 基于变分辨率的自适应窗口目标跟踪方法研究 60
3.6.1 基于变分辨率的自适应窗口目标跟踪方法 61
3.6.2 实验结果 63
3.7 基于粒子滤波的目标跟踪算法研究 65
3.7.1 粒子滤波原理 65
3.7.2 基于后验概率的粒子滤波算法 66
3.7.3 实验结果 68
3.8 基于TLD的目标跟踪算法 69
3.8.1 算法构成 69
3.8.2 跟踪模块 70
3.8.3 检测模块 71
3.8.4 学习模块 72
第4章 目标检测 74
4.1 运动目标检测算法 74
4.1.1 背景匹配技术 74
4.1.2 帧间运动目标检测 76
4.1.3 基于混合高斯分布的背景估计模型 79
4.2 基于参数统计的目标检测 83
4.2.1 目标识别中的边缘检测算法 84
4.2.2 基于Hough变换的直线检测算法研究 86
4.2.3 基于随机Hough变换的圆检测算法研究 90
第5章 图像拼接与镶嵌 99
5.1 尺度不变特征变换算法 99
5.1.1 SIFT特征提取 99
5.1.2 基于k-d树的特征点匹配 103
5.1.3 图像误匹配对的消除 105
5.2 图像变换模型 105
5.2.1 平移变换 106
5.2.2 旋转变换 106
5.2.3 缩放变换 106
5.2.4 相似变换 106
5.2.5 仿射变换 107
5.2.6 透射变换 107
5.3 多相机图像拼接技术 108
5.4 图像镶嵌技术 109
5.5 无缝图像拼接融合 110
5.5.1 平均值法 111
5.5.2 多分辨率样条技术 112
5.5.3 渐入渐出法 112
5.5.4 基于自适应梯度域的图像无缝镶嵌方法 113
5.6 渐晕现象的理论分析与消除方法 118
5.6.1 图像渐晕现象分类 118
5.6.2 渐晕校正方法 120
5.6.3 渐晕模型及基本假设 124
5.6.4 渐晕自动校准 124
5.7 存在局部运动目标的镶嵌重影去除方法 130
5.7.1 重影目标边缘检测 130
5.7.2 马尔科夫随机场 131
5.7.3 轮廓特征点匹配 132
5.7.4 最优拼接缝的寻找 133
5.8 镶嵌图像质量评价方法 139
第6章 图像增强 141
6.1 图像增强技术的研究意义 141
6.2 基于空域滤波的图像平滑方法研究 142
6.3 基于灰度变换的图像增强算法研究 143
6.4 基于变分辨率的直方图均衡化图像增强算法研究 145
6.4.1 基于变分辨率的图像直方图统计分析 146
6.4.2 基于变分辨率的图像直方图均衡增强算法 148
6.5 基于对比度受限自适应直方图均衡的图像增强算法 150
6.6 Retinex图像增强方法 151
6.6.1 Retinex理论研究现状 153
6.6.2 中心环绕Retinex方法 154
6.6.3 实验结果量化比较分析 157
6.7 基于超分辨率图像序列重建的图像增强算法研究 157
6.7.1 超分辨率图像重建的意义 157
6.7.2 超分辨率重建的原理 159
6.7.3 基于亚像素配准的运动估计 160
6.7.4 图像观测数学模型 162
6.7.5 图像超分辨率重建实验结果 163
6.8 深度图像增强算法 164
6.8.1 结构特征提取 165
6.8.2 基于结构特征的联合双边滤波 165
6.8.3 基于马尔科夫随机场的深度图像增强 166
6.8.4 实验结果 168
第7章 电子稳像 171
7.1 光流法思想 171
7.2 光流运动矢量计算 172
7.3 基于Harris角点的光流运动估计的电子稳像 173
7.3.1 Harris检测算子 173
7.3.2 特征区域的选择 176
7.3.3 多分辨率策略的实现 177
7.4 基于光流运动矢量估计的稳像质量评价 179
第8章 图像融合 182
8.1 图像融合前端处理 183
8.1.1 多源成像传感器及融合算法的选择 183
8.1.2 图像的预处理 186
8.2 红外与可见光图像的配准 189
8.2.1 图像配准的基本概念及现状 189
8.2.2 多源图像的配准 192
8.3 多源图像融合 194
8.3.1 图像融合方法的现状 194
8.3.2 图像融合规则 195
8.3.3 基于Laplace金字塔分解的图像融合算法 198
8.3.4 基于小波变换的图像融合算法 199
8.3.5 实验结果 205
8.4 融合图像质量评价 206
8.4.1 主观融合评价 206
8.4.2 客观融合评价 207
第9章 基于深度学习的视觉感知技术 216
9.1 概述 216
9.2 深度学习 218
9.2.1 人工智能发展概述 218
9.2.2 机器学习 219
9.2.3 特征的表达 220
9.2.4 深度学习的基本原理 222
9.2.5 浅层学习和深度学习 222
9.2.6 深度学习与神经网络的区别与联系 223
9.2.7 深度学习的训练过程 225
9.2.8 深度学习模型 226
9.2.9 深度学习未来与展望 238
第10章 基于SLAM的三维重建与视觉导航算法 240
10.1 点云配准 240
10.1.1 配准技术涉及的几何特征 241
10.1.2 点云配准数学理论 245
10.1.3 迭代最近点算法 247
10.1.4 RANSAC配准算法 248
10.1.5 实验结果与分析 250
10.2 机器人同时定位与建图SLAM技术 254
10.2.1 SLAM原理 254
10.2.2 SLAM的主要方法 254
10.2.3 SLAM的应用 256
第11章 ROS机器人操作系统 259
11.1 ROS简介 259
11.2 ROS特点 259
参考文献 264