当前位置:首页 > 工业技术
自己动手做大数据系统
自己动手做大数据系统

自己动手做大数据系统PDF电子书下载

工业技术

  • 电子书积分:10 积分如何计算积分?
  • 作 者:张魁,张粤磊,刘未昕,吴茂贵著
  • 出 版 社:北京:电子工业出版社
  • 出版年份:2016
  • ISBN:9787121295867
  • 页数:238 页
图书介绍:本书全面讲解了大数据系统,共分9章。第1章介绍为什么我们需要动手做大数据系统;第2章介绍动手做大数据系统的项目背景,项目架构及相关基础知识;第3章 介绍大数据系统环境的搭建和配置,主要介绍如何搭建和配置hadoop集群、Sqoop、Hive、HBase、ZooKeeper、Spark、MySQL等,图文并茂,内容详实;第4章 介绍了大数据系统中数据获取相关技术及应用;第5章介绍了大数据系统中数据处理相关技术及应用;第6章介绍了大数据系统中数据存储相关技术及应用;第7章介绍了大数据系统中数据展示相关技术及应用;第8章介绍了大数据系统中数据分析与挖掘相关技术及应用;第9章介绍如何搭建支撑大数据系统的云平台,来保证大数据系统的稳定性。
《自己动手做大数据系统》目录

第1章 为什么要自己动手做大数据系统 1

1.1 大数据时代 1

1.2 实战大数据项目 2

1.3 大数据演练平台 2

第2章 项目背景及准备 4

2.1 项目背景 4

2.2 项目简介 4

2.3 项目架构 4

2.4 操作系统 5

2.5 数据存储 7

2.6 数据处理 8

2.7 开发工具 9

2.8 调试工具 10

2.9 版本管理 10

第3章 大数据环境搭建和配置 11

3.1 各组件功能说明 11

3.1.1 各种数据源的采集工具 12

3.1.2 企业大数据存储工具 12

3.1.3 企业大数据系统的数据仓库工具 12

3.1.4 企业大数据系统的分析计算工具 13

3.1.5 企业大数据系统的数据库工具 13

3.2 大数据系统各组件安装部署配置 13

3.2.1 安装的前期准备工作 13

3.2.2 Hadoop基础环境安装及配置 15

3.2.3 Hive安装及配置 21

3.2.4 Sqoop安装及配置 24

3.2.5 Spark安装及配置 30

3.2.6 Zookeeper安装及配置 31

3.2.7 HBase安装及配置 33

3.3 自动化安装及部署说明 35

3.3.1 自动化安装及部署整体架构设计 35

3.3.2 大数据系统自动化部署逻辑调用关系 36

3.4 本章小结 43

第4章 大数据的获取 44

4.1 使用爬虫获取互联网数据 45

4.2 Python和Scrapy框架的安装 45

4.3 抓取和解析招聘职位信息 47

4.4 职位信息的落地 51

4.5 两个爬虫配合工作 53

4.6 让爬虫的架构设计更加合理 55

4.7 获取数据的其他方式 57

4.8 使用Sqoop同步论坛中帖子数据 57

4.9 本章小结 59

第5章 大数据的处理 60

5.1 Hive是什么 60

5.2 为什么使用Hive做数据仓库建模 60

5.3 飞谷项目中Hive建模步骤 61

5.3.1 逻辑模型的创建 62

5.3.2 物理模型的创建 67

5.3.3 将爬虫数据导入stg_job表 74

5.4 使用Hive进行数据清洗转换 77

5.5 数据清洗转换的必要性 78

5.6 使用HiveQL清洗数据、提取维度信息 79

5.6.1 使用HQL清洗数据 79

5.6.2 提取维度信息 82

5.7 定义Hive UDF封装处理逻辑 85

5.7.1 Hive UDF的开发、部署和调用 86

5.7.2 Python版本的UDF 89

5.8 使用左外连接构造聚合表rpt_job 92

5.9 让数据处理自动调度 96

5.9.1 HQL的几种执行方式 96

5.9.2 Hive Thrift服务 99

5.9.3 使用JDBC连接Hive 100

5.9.4 Python调用HiveServer服务 103

5.9.5 用crontab实现的任务调度 105

5.10 本章小结 107

第6章 大数据的存储 108

6.1 NoSQL及HBase简介 108

6.2 HBase中的主要概念 110

6.3 HBase客户端及JavaAPI 111

6.4 Hive数据导入 HBase的两种方案 114

6.4.1 利用既有的JAR包实现整合 114

6.4.2 手动编写MapReduce程序 116

6.5 使用Java API查询HBase中的职位信息 122

6.5.1 为什么是HBase而非Hive 122

6.5.2 多条件组合查询HBase中的职位信息 123

6.6 如何显示职位表中的某条具体信息 132

6.7 本章小结 133

第7章 大数据的展示 134

7.1 概述 134

7.2 数据分析的一般步骤 135

7.3 用R来做数据分析展示 135

7.3.1 在Ubuntu上安装R 135

7.3.2 R的基本使用方式 137

7.4 用Hive充当R的数据来源 139

7.4.1 RHive组件 139

7.4.2 把R图表整合到Web页面中 145

7.5 本章小结 151

第8章 大数据的分析挖掘 152

8.1 基于Spark的数据挖掘技术 152

8.2 Spark和Hadoop的关系 153

8.3 在Ubuntu上安装Spark集群 154

8.3.1 JDK和Hadoop的安装 154

8.3.2 安装Scala 154

8.3.3 安装Spark 155

8.4 Spark的运行方式 157

8.5 使用Spark替代Hadoop Yarn引擎 160

8.5.1 使用spark-sql查看Hive表 160

8.5.2 在beeline客户端使用Spark引擎 161

8.5.3 在Java代码中引用Spark的ThriftServer 163

8.6 对招聘公司名称做全文检索 168

8.6.1 从HDFS数据源构造JavaRDD 169

8.6.2 使用Spark SQL操作RDD 173

8.6.3 把RDD运行结果展现在前端 174

8.7 如何把Spark用得更好 175

8.8 SparkR组件的使用 177

8.8.1 SparkR的安装及启动 177

8.8.2 运行自带的Sample例子 179

8.8.3 利用SparkR生成职位统计饼图 179

8.9 本章小结 181

第9章 自己动手搭建支撑大数据系统的云平台 182

9.1 云平台架构 182

9.1.1 一期云基础平台架构 182

9.1.2 二期云基础平台架构 184

9.2 云平台搭建及部署 185

9.2.1 安装组件前准备 185

9.2.2 Identity(Keystone)组件 190

9.2.3 Image(Glance)组件 198

9.2.4 Compute(Nova)组件 201

9.2.5 Storage(Cinder)组件 206

9.2.6 Networking(Neutron)组件 210

9.2.7 Ceph分布式存储系统 221

9.2.8 Dashboard(Horizon)组件 230

9.3 Identity(Keystone)与LDAP的整合 232

9.4 配置Image组件大镜像部署 235

9.5 配置业务系统无缝迁移 236

9.6 本章小结 237

参考文献 238

返回顶部