Hadoop安装部署--HDFS集群部署
节点规划
主机名 | 角色 |
---|---|
hadoop01 | NameNode、DataNode |
hadoop02 | DataNode |
hadoop03 | DataNode、SecondaryNameNode |
1. 准备程序文件
下载 Hadoop 程序包
tip若下载速度过慢,可更换使用国内镜像如 清华大学开源软件镜像站 下载
cd /opt/software
wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz解压
tar -zxvf /opt/software/hadoop-3.3.4.tar.gz -C /opt/bigdata
创建软链接
ln -s /opt/bigdata/hadoop-3.3.4 /opt/bigdata/hadoop
2. 配置环境变量
vim /etc/profile.d/bigdata.sh
export HADOOP_HOME=/opt/bigdata/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile.d/bigdata.sh
3. 配置 workers
vim /opt/bigdata/hadoop/etc/hadoop/workers
hadoop01
hadoop02
hadoop03
4. 配置 core-site.xml
vim /opt/bigdata/hadoop/etc/hadoop/core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:8020</value>
</property>
5. 配置 hdfs-site.xml
vim /opt/bigdata/hadoop/etc/hadoop/hdfs-site.xml
caution
针对副本数量 dfs.replication
,由于我们在家中部署时,多数情况下三台虚拟机均在同一台物理机上和硬盘上,设置多个副本没有实际意义,反而浪费磁盘空间,所以设置为 1。生产环境中,需要修改为 3。
<!-- namenode地址 -->
<property>
<name>dfs.namenode.http-address</name>
<value>hadoop01:9870</value>
</property>
<!-- secondarynamenode地址 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop03:9868</value>
</property>
<!-- 副本数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!-- 指定哪些节点作为 NameNode -->
<property>
<name>dfs.namenode.hosts</name>
<value>hadoop01, hadoop02, hadoop03</value>
</property>
6. 分发到其他节点
danger
文件夹 /opt/bigdata/hadoop-3.3.4
只可在集群初次启动之前分发,若已启动过,不可再分发,因为每个节点生成的数据不同,分发后会导致集群损坏。
xsync /opt/bigdata/hadoop-3.3.4
7. HDFS 集群启动
格式化 NameNode
su - hadoop
hdfs namenode -format
启动 HDFS
start-dfs.sh
查看进程
jps
停止 HDFS
stop-dfs.sh
8. 访问 HDFS
访问 NameNode
http://hadoop01:9870
访问 DataNode
http://hadoop02:9864
http://hadoop03:9864访问 SecondaryNameNode
http://hadoop03:9868