hadoop快速安装指南
系统环境
- CentOS 7
- Hadoop版本选用2.9.1
Hadoop 3.x都出来了(#`O′) - 安装方法适用于hadoop 2.7.1
- 为了方便后续的测试和开发,选择使用伪分布式配置
- 需要先安装好JDK 8
下载和安装
1 | cd ~/installs |
配置
1 | vim ~/.bashrc |
一个简单的示例如下,个人习惯将安装包放在~/installs
,各种应用存放至~/bin
,用户配置修改~/.bashrc
,所以这个配置文件的存放前缀为/root/bin
为了避免各种烦人的权限问题直接上root。也可以根据个人的喜好自行设置。
1 | export LOCAL=/root/bin |
修改配置文件后,切记让配置生效
1 | source ~/.bashrc |
修改主机名和hosts文件
1 | echo "mycentos">/etc/hostsname |
其中,修改主机名后可能需要重启后才能生效,生效后的shell命令前缀如[root@mycentos hadoop]#
ip地址需要自己查询并修改,这里192.168.22.129
是这台机器的ip。
接下来是修改hadoop的配置,我们主要需要修改以下两个文件core-site.xml
和hdfs-site.xml
,这个两个文件位置在/root/bin/hadoop/etc/hadoop目录下
1 | # core-site.xml |
启动
启动前需要对NameNode进行格式化
Notes: 非首次格式化时,可能会造成DataNode和NameNode的Cluster ID不一致的问题,这会导致DataNode无法正常启动,需要手动修改/root/bin/hadoop/tmp/dfs/data/current目录下的VERSION文件中的clusterID为/root/bin/hadoop/tmp/dfs/name/current目录下VERSION文件中的对应值。
1 | hdfs namenode -format |
使用启动脚本启动
1 | start-dfs.sh |
若成功启动jps
命令下会显示 “NameNode”、”DataNode”和”SecondaryNameNode”。启动不成功时可以通过查看日志排查问题。启动日志存放在/root/bin/hadoop/logs下。
1 | 创建一个文件夹验证一下 |
版权声明:
除另有声明外,本博客文章均采用 知识共享(Creative Commons) 署名-非商业性使用-相同方式共享 3.0 中国大陆许可协议 进行许可。
分享