第一部分 引言 1
第一章 人机界面的发展历史 1
1.1 引言 1
1.2 人机界面的发展历史 1
第二章 人机交互的发展趋势 8
2.1 多媒体技术的支持 8
2.2 采用多通道进行交互 12
2.4 计算机支持的协同工作 15
2.3 自然语言接口 15
2.5 三维人机交互技术 19
第三章 多通道人机交互与虚拟现实 22
3.1 多通道人机交互 22
3.2 虚拟现实技术 25
第二部分 新交互技术 28
第四章 交互设备与关键技术 28
4.1 人机交互技术 28
4.2 眼动跟踪 32
4.3 姿势识别 34
4.4 三维输入 35
4.5 语音识别 36
4.6 表情识别 41
4.7 自然语言理解 42
4.8 手写识别 45
第五章 全息图像和听觉界面 53
5.1 全息图像 53
5.2 听觉界面 59
第六章 国外研究实例 64
6.1 国际会议 64
第三部分 国外研究概况 64
6.2 北美的多通道界面研究 66
6.3 欧洲的多通道界面研究 83
第四部分 理论与方法 92
第七章 多通道用户界面模型及描述方法 92
7.1 概述 92
7.2 交互原语 94
7.3 基于自然交互方式的多通道用户界面模型(VisualMan) 96
7.4 基于事件-目标的多通道用户结构模型 96
7.5 层次化的多通道用户界面描述方法(HMIS) 103
7.6 分布式多通道用户界面的模型及原型 109
第八章 多通道整合模型和算法研究 113
8.1 多通道整合 113
8.2 面向任务的整合模型(ATOM) 119
8.3 多通道分层整合模型和算法 127
8.4 基于概率模型的指称整合模型 131
8.5 基于模糊识别模型的视线交互整合模型 138
第九章 用户界面评价与可用性测试 145
9.1 用户界面评估的意义 146
9.3 界面表现评估 147
9.2 多通道界面评估机制 147
9.4 多通道界面人机交互评估 152
9.5 CAD评估实例 155
9.6 多通道用户界面的可用性测试 156
9.7 界面评估清单:一种有效的可用性测试方法 159
第十章 多通道用户界面的软件结构和开发环境 167
10.1 软件结构 167
10.2 基于智能结构模型 170
10.3 基于智能体的多通道用户界面开发环境MMID-KIT 173
10.4 采用多通道界面的PCVRS软件平台 184
10.5 基于事件-目标的多通道用户界面的软件实现 190
第十一章 多通道用户界面的应用与实例 203
11.1 引言 203
11.2 虚拟座舱实例 203
第五部分 国内研究实例 203
11.3 草图CAD实例 206
11.4 VRoom实例 212
11.5 其他 215
第十二章 下一代人机界面展望——基于智能体虚拟现实化多通道因特网界面 221
12.1 引言 221
第六部分 展望 221
12.2 一种新的用户界面的范式——VIR 222
12.3 自然人机交互 226
12.4 网络用户界面 230
12.5 关于下一代界面的讨论 232
附录 237
A.Internet有关网址 237
B.国内有关书籍 239
C.国外有关杂志及标准 240
参考文献 241