《统计机器翻译》PDF下载

  • 购买积分:12 如何计算积分?
  • 作  者:(德)科恩著
  • 出 版 社:北京:电子工业出版社
  • 出版年份:2012
  • ISBN:9787121175923
  • 页数:302 页
图书介绍:本书是介绍统计机器翻译理论和方法的教材。全书分三部分(共计11章),分别讨论基础知识、核心方法和前沿研究。全书首先简要介绍语言学和概率论基础知识,然后全面讨论各种经典统计机器翻译模型和系统实现方法,最后深入探讨统计翻译领域的最新进展和研究热点。对核心方法的论述按照统计机器翻译模型发展的过程逐步展开:基于词的模型、基于短语的模型和基于句法树的模型。从技术实现的角度,本书还介绍了统计翻译模型的参数训练方法、语言模型和参数平滑方法、解码算法和译文自动评测方法及系统整合方法等。

第一部分 基础知识 2

第1章 绪论 2

1.1 概述 3

1.1.1 第1章:绪论 3

1.1.2 第2章:词、句子和语料 3

1.1.3 第3章:概率论 4

1.1.4 第4章:基于词的翻译模型 4

1.1.5 第5章:基于短语的翻译模型 5

1.1.6 第6章:解码 5

1.1.7 第7章:语言模型 6

1.1.8 第8章:评测 6

1.1.9 第9章:判别式训练 7

1.1.10 第10章:整合语言学信息 8

1.1.11 第11章:基于树的翻译模型 8

1.2 机器翻译简史 9

1.2.1 肇始 9

1.2.2 ALPAC报告及其后果 9

1.2.3 首批商用系统 10

1.2.4 基于中间语系统的研究 10

1.2.5 数据驱动方法 11

1.2.6 目前的开发商 11

1.2.7 技术现状 12

1.3 应用 13

1.3.1 全自动高质量机器翻译 13

1.3.2 要旨翻译 13

1.3.3 集成语音技术 14

1.3.4 手持设备中的翻译 14

1.3.5 后编辑 15

1.3.6 译者的工具 15

1.4 可用资源 15

1.4.1 工具 15

1.4.2 语料 16

1.4.3 评测竞赛 16

1.5 小结 17

1.5.1 核心概念 17

1.5.2 延伸阅读 17

1.6 习题 20

第2章 词、句子和语料 21

2.1 词 21

2.1.1 词例化 21

2.1.2 词的分布 22

2.1.3 词性 25

2.1.4 形态学 26

2.1.5 词汇语义学 28

2.2 句子 29

2.2.1 句子结构 30

2.2.2 语法理论 31

2.2.3 句子结构的翻译 34

2.2.4 语篇 35

2.3 语料 35

2.3.1 文本的类型 35

2.3.2 获取平行语料 36

2.3.3 句子对齐 37

2.4 小结 38

2.4.1 核心概念 38

2.4.2 延伸阅读 39

2.4.3 习题 41

第3章 概率论 42

3.1 概率分布估计 42

3.1.1 估计分析 42

3.1.2 常见概率分布 42

3.1.3 基于统计的概率估计 44

3.2 概率分布计算 45

3.2.1 形式定义 45

3.2.2 联合概率分布 45

3.2.3 条件概率分布 46

3.2.4 贝叶斯法则 46

3.2.5 插值 47

3.3 概率分布的特性 47

3.3.1 均值和方差 47

3.3.2 期望和方差 48

3.3.3 熵 48

3.3.4 互信息 49

3.4 小结 51

3.4.1 核心概念 51

3.4.2 延伸阅读 51

3.4.3 习题 51

第二部分 核心方法 54

第4章 基于词的翻译模型 54

4.1 基于词的机器翻译 54

4.1.1 词汇翻译 54

4.1.2 数据统计 54

4.1.3 估计概率分布 55

4.1.4 对齐 55

4.1.5 IBM模型1 57

4.2 学习词汇翻译模型 58

4.2.1 语料不完备问题 58

4.2.2 期望最大化算法 59

4.2.3 IBM模型1中的期望最大化算法 59

4.2.4 困惑度 62

4.3 确保流畅的输出 63

4.3.1 流利译文的经验证据 63

4.3.2 语言模型 64

4.3.3 噪声信道模型 64

4.4 更高级的IBM模型 65

4.4.1 IBM模型2 65

4.4.2 IBM模型3 67

4.4.3 训练模型3:采样对齐空间 70

4.4.4 IBM模型4 71

4.4.5 IBM模型5 75

4.5 词对齐 77

4.5.1 词对齐任务 77

4.5.2 词对齐质量评估 78

4.5.3 基于IBM模型的词对齐 78

4.6 小结 80

4.6.1 核心概念 80

4.6.2 延伸阅读 81

4.6.3 习题 84

第5章 基于短语的翻译模型 85

5.1 标准模型 85

5.1.1 基于短语的翻译模型提出的动因 85

5.1.2 数学定义 86

5.2 学习短语翻译表 87

5.2.1 从词对齐中抽取短语 87

5.2.2 一致性定义 87

5.2.3 短语抽取算法 88

5.2.4 应用实例 90

5.2.5 短语翻译概率估计 91

5.3 翻译模型的扩展 92

5.3.1 对数线性模型 92

5.3.2 双向翻译概率 93

5.3.3 词汇化加权 94

5.3.4 词语惩罚 95

5.3.5 短语惩罚 95

5.3.6 作为分类问题的短语翻译 95

5.4 调序模型的扩展 96

5.4.1 调序限制 96

5.4.2 词汇化调序 97

5.5 基于短语模型的期望最大化训练 98

5.5.1 短语对齐的联合模型 98

5.5.2 对齐空间的复杂度 99

5.5.3 模型训练 99

5.6 小结 100

5.6.1 核心概念 100

5.6.2 延伸阅读 100

5.6.3 习题 103

第6章 解码 104

6.1 翻译过程 104

6.1.1 翻译一个句子 104

6.1.2 计算句子的翻译概率 105

6.2 柱搜索 106

6.2.1 翻译选项 106

6.2.2 通过假设扩展的解码过程 107

6.2.3 计算复杂度 107

6.2.4 翻译假设重组 108

6.2.5 栈解码 109

6.2.6 直方图剪枝和阈值剪枝 110

6.2.7 调序限制 112

6.3 未来代价估计 112

6.3.1 不同的翻译困难 112

6.3.2 翻译选项的未来代价估计 113

6.3.3 任意输入跨度的未来代价估计 114

6.3.4 在搜索中使用未来代价 115

6.4 其他解码算法 116

6.4.1 基于覆盖栈的柱搜索算法 116

6.4.2 A*搜索算法 116

6.4.3 贪婪爬山解码 117

6.4.4 有限状态转换机解码 118

6.5 小结 118

6.5.1 核心概念 118

6.5.2 延伸阅读 119

6.5.3 习题 120

第7章 语言模型 121

7.1 n元文法语言模型 121

7.1.1 马尔可夫链 122

7.1.2 估计 122

7.1.3 困惑度 123

7.2 计数平滑 126

7.2.1 加1平滑法 127

7.2.2 删除估计平滑法 128

7.2.3 古德-图灵平滑法 129

7.2.4 评估 132

7.3 插值和后备 132

7.3.1 插值 133

7.3.2 递归插值 133

7.3.3 后备 134

7.3.4 预测词的差异性 134

7.3.5 历史的差异性 135

7.3.6 修正的Kneser-Ney平滑算法 136

7.3.7 评估 137

7.4 控制语言模型的大小 138

7.4.1 不同的n元文法的数目 138

7.4.2 在磁盘上进行估计 139

7.4.3 高效的数据结构 139

7.4.4 减小词汇表规模 141

7.4.5 抽取相关的n元文法 142

7.4.6 根据需要加载n元文法 143

7.5 小结 144

7.5.1 核心概念 144

7.5.2 延伸阅读 145

7.5.3 习题 145

第8章 评测 147

8.1 人工评测 147

8.1.1 流利度和忠实度 147

8.1.2 评测目的 149

8.1.3 其他评测标准 150

8.2 自动评测 150

8.2.1 准确率和召回率 150

8.2.2 词错误率 152

8.2.3 BLEU:一个双语评测的替代指标 153

8.2.4 METEOR 154

8.2.5 关于评测的争论 155

8.2.6 评测指标的评测 156

8.2.7 自动评测不足的证据 157

8.3 假设检验 158

8.3.1 计算置信区间 158

8.3.2 成对比较 159

8.3.3 自举重采样 160

8.4 面向任务的评测 161

8.4.1 后编辑的代价 161

8.4.2 内容理解测试 162

8.5 小结 163

8.5.1 核心概念 163

8.5.2 延伸阅读 164

8.5.3 习题 166

第三部分 前沿研究 168

第9章 判别式训练 168

9.1 寻找候选译文 168

9.1.1 搜索图 169

9.1.2 词格 169

9.1.3 n-best列表 170

9.2 判别式方法的原理 172

9.2.1 译文的特征表示 173

9.2.2 标注译文的正确性 174

9.2.3 监督学习 175

9.2.4 最大熵 176

9.3 参数调节 178

9.3.1 实验设置 178

9.3.2 Powell搜索方法 179

9.3.3 单纯型算法 183

9.4 大规模判别式训练 184

9.4.1 训练问题 185

9.4.2 目标函数 185

9.4.3 梯度下降 186

9.4.4 感知机 187

9.4.5 正则化 188

9.5 后验方法与系统融合 188

9.5.1 最小贝叶斯风险 189

9.5.2 置信度估计 190

9.5.3 系统融合 190

9.6 小结 192

9.6.1 核心概念 192

9.6.2 延伸阅读 193

9.6.3 习题 194

第10章 整合语言学信息 196

10.1 直译 197

10.1.1 数字和名字 197

10.1.2 名字翻译 198

10.1.3 直译的有限状态方法 198

10.1.4 资源 200

10.1.5 反向直译与翻译 200

10.2 形态学 201

10.2.1 词素 201

10.2.2 简化丰富的形态变化 202

10.2.3 翻译形态丰富的语言 204

10.2.4 单词拆分 204

10.3 句法重构 205

10.3.1 基于输入语言句法的调序 205

10.3.2 学习调序规则 206

10.3.3 基于词性标记的调序 207

10.3.4 基于句法树的调序 208

10.3.5 预留选择 210

10.4 句法特征 211

10.4.1 方法论 211

10.4.2 数的一致性 211

10.4.3 一致性 212

10.4.4 句法分析概率 213

10.5 因子化翻译模型 214

10.5.1 因子化翻译的分解 214

10.5.2 因子化模型训练 216

10.5.3 模块的融合 216

10.5.4 高效解码 217

10.6 小结 217

10.6.1 核心概念 217

10.6.2 延伸阅读 218

10.6.3 习题 222

第11章 基于树的翻译模型 223

11.1 同步文法 223

11.1.1 短语结构语法 223

11.1.2 同步短语结构语法 224

11.1.3 同步树替换文法 225

11.2 同步文法的学习 227

11.2.1 层次短语模型的学习 227

11.2.2 句法翻译规则的学习 229

11.2.3 规则的简化 232

11.2.4 文法规则的打分 233

11.3 基于句法分析算法的解码 233

11.3.1 线图分析 233

11.3.2 核心算法 235

11.3.3 线图的组织 236

11.3.4 假设重组 236

11.3.5 栈剪枝 237

11.3.6 文法规则的使用 238

11.3.7 立方剪枝 241

11.3.8 文法二叉化 243

11.3.9 外向代价估计 245

11.4 小结 246

11.4.1 核心概念 246

11.4.2 延伸阅读 246

11.4.3 习题 250

参考文献 251

索引 296