拉勾大数据开发高薪训练营【Wan整】

126 阅读3分钟

下栽の地止:大数据开发高薪训练营KE

大数据如何快速入门

数据科学并没有一个独立的学科体系,统计学,机器学习,数据挖掘,数据库,分布式计算,云计算,信息可视化等技术或方法来对付数据。但从狭义上来看,我认为数据科学就是解决三个问题:1. data pre-processing;2. data interpretation;3. data modeling and analysis. 这也就是我们做数据工作的三个大步骤:1、原始数据要经过一连串收集、提取、清洗、整理等等的预处理过程,才能形成高质量的数据;2、我们想看看数据“长什么样”,有什么特点和规律;3、按照自己的需要,比如要对数据贴标签分类,或者预测,或者想要从大量复杂的数据中提取有价值的且不易发现的信息,都要对数据建模,得到output。这三个步骤未必严谨,每个大步骤下面可能依问题的不同也会有不同的小步骤,但按我这几年的经验来看,按照这个大思路走,数据一般不会做跑偏。这样看来,数据科学其实就是门复合型的技术,既然是技术就从编程语言谈起吧,为了简练,只说说R和Python。但既然是荐数据科学方面的书,我这里就不提R/Python编程基础之类的书了,直接上跟数据科学相关的。

Hadoop单机版环境搭建

一、前置条件
Hadoop 的运行依赖 JDK,需要预先安装,安装步骤见:

Linux 下 JDK 的安装
二、配置免密登录
Hadoop 组件之间需要基于 SSH 进行通讯。

2.1 配置映射
配置 ip 地址和主机名映射:

vim /etc/hosts

文件末尾增加

192.168.43.202 hadoop001
2.2 生成公私钥
执行下面命令行生成公匙和私匙:

ssh-keygen -t rsa
3.3 授权
进入 ~/.ssh 目录下,查看生成的公匙和私匙,并将公匙写入到授权文件:

[root@@hadoop001 sbin]# cd ~/.ssh
[root@@hadoop001 .ssh]# ll
-rw-------. 1 root root 1675 3 月 15 09:48 id_rsa
-rw-r–r–. 1 root root 388 3 月 15 09:48 id_rsa.pub

写入公匙到授权文件

[root@hadoop001 .ssh]# cat id_rsa.pub >> authorized_keys
[root@hadoop001 .ssh]# chmod 600 authorized_keys
三、Hadoop(HDFS)环境搭建
3.1 下载并解压
下载 Hadoop 安装包,这里我下载的是 CDH 版本的,下载地址为:archive.cloudera.com/cdh5/cdh/5/

解压

tar -zvxf hadoop-2.6.0-cdh5.15.2.tar.gz
3.2 配置环境变量

vi /etc/profile

配置环境变量:

export HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
export PATH={HADOOP_HOME}/bin:HADOOPH​OME/bin:PATH
执行 source 命令,使得配置的环境变量立即生效:

source /etc/profile

3.3 修改Hadoop配置
进入 ${HADOOP_HOME}/etc/hadoop/ 目录下,修改以下配置:

  1. hadoop-env.sh

JDK安装路径

export JAVA_HOME=/usr/java/jdk1.8.0_201/
2. core-site.xml



fs.defaultFS
hdfs://hadoop001:8020



hadoop.tmp.dir
/home/hadoop/tmp


3. hdfs-site.xml
指定副本系数和临时文件存储位置:

dfs.replication 1 4. slaves 配置所有从属节点的主机名或 IP 地址,由于是单机版本,所以指定本机即可:

hadoop001
3.4 关闭防火墙
不关闭防火墙可能导致无法访问 Hadoop 的 Web UI 界面:

查看防火墙状态

sudo firewall-cmd --state

关闭防火墙:

sudo systemctl stop firewalld.service
3.5 初始化
第一次启动 Hadoop 时需要进行初始化,进入 ${HADOOP_HOME}/bin/ 目录下,执行以下命令:

[root@hadoop001 bin]# ./hdfs namenode -format
3.6 启动HDFS
进入 ${HADOOP_HOME}/sbin/ 目录下,启动 HDFS:

[root@hadoop001 sbin]# ./start-dfs.sh
3.7 验证是否启动成功
方式一:执行 jps 查看 NameNode 和 DataNode 服务是否已经启动:

[root@hadoop001 hadoop-2.6.0-cdh5.15.2]# jps
9137 DataNode
9026 NameNode
9390 SecondaryNameNode
方式二:查看 Web UI 界面,端口为 50070: