欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Mac-搭建Hadoop集群

程序员文章站 2023-11-09 22:53:28
You have to work very hard to believe that you are really powerless. Mac-搭建Hadoop集群 我用到了:VMware Fusion、CentOS7、FileZilla、jdk-8u181-linux-x64.tar.gz和ha ......

you have to work very hard to believe that you are really powerless.

 

mac-搭建hadoop集群

我用到了:vmware fusion、centos7、filezilla、jdk-8u181-linux-x64.tar.gz和hadoop-2.7.6.tar.gz

1、集群部署规划

namenode单点部署:

节点名称 nn1 nn2 dn rm nm 规划ip other
tjt01 namenode   datanode   nodemanager 172.16.114.130 hive/hdfs
tjt02   secondarynamenode datanode resourcemanager nodemanager 172.16.114.131 hbase/kms
tjt03     datanode   nodemanager 172.16.114.132 mysql/spark

 

 

 

 

 

2、三台客户机相关准备

2.1、安装vmware虚拟机

在虚拟机中安装centos镜像,由初始安装的centos7版本的镜像,完整克隆出另外两台虚拟机

Mac-搭建Hadoop集群

2.2、修改主机名

[root@tjt01 tjt]# vi /etc/hostname

分别修改三台虚拟机主机名:tjt01、tjt02、tjt03

2.3、修改host文件

配置主机host:

[root@tjt01 tjt]# vi /etc/hosts

 Mac-搭建Hadoop集群

将配置发送到其他的主机,同时在其他主机上配置:

scp -r /etc/hosts root@tjt02:/etc/
scp -r /etc/hosts root@tjt03:/etc/
Mac-搭建Hadoop集群

测试host文件修改结果:

ping tjt01
ping tjt02
pint tjt03

Mac-搭建Hadoop集群

2.4、设置ssh免密登录

每两台主机之间设置免密码,自己的主机与自己的主机之间也要求设置免密码;

输入:ssh-keygen -t rsa

然后按下四次回车,之后在把密匙发到其他主机上,输入:ssh-copy-id tjt01 并按提示输入密码,然后是ssh-copy-id 02和ssh-copy-id 03同样的操作;

之后,在另外两台虚拟机上也执行相同的步骤:

ssh-keygen -t rsa
ssh-copy-id tjt01
ssh-copy-id tjt02
ssh-copy-id tjt03
测试ssh免密登录:
ssh tjt01、ssh tjt02、ssh tjt03
Mac-搭建Hadoop集群
2.5、安装配置jdk
虚拟机默认安装了一个openjdk,卸载掉:
rpm -qa | grep jdk
可以查看已经安装了的openjdk
yum remove *openjdk*
干掉openjdk
yum remove copy-jdk-configs-3.3-10.el7_5.noarch
干掉jdk-configs
Mac-搭建Hadoop集群

Mac-搭建Hadoop集群

将jdk安装包上传到/opt下,可以通过xshell的rz上传,也可以用filezilla:

Mac-搭建Hadoop集群

到/opt 目录下解压:tar xzvf jdk-8u181-linux-x64.tar.gz

Mac-搭建Hadoop集群

设置java_home:

输入:vi /etc/profile,在profile文件中的编辑模式下加上下方export配置:

export java_home=/opt/jdk1.8.0_181
export path=$path:$java_home/bin:$java_home/sbin
修改好之后使文件生效:source /etc/profile

Mac-搭建Hadoop集群

复制jdk到另外两个节点:

在这之前要先把另外两台虚拟机上的openjdk也干掉:

yum remove *openjdk*
yum remove copy-jdk-configs-3.3-10.el7_5.noarch

然后复制jdk到另外两个虚拟机上:

scp -r /opt/jdk1.8.0_181 root@tjt02:/opt/
scp -r /opt/jdk1.8.0_181 root@tjt03:/opt/

向其他节点复制profile文件:

scp /etc/profile root@tjt02:/etc/
scp /etc/profile root@tjt03:/etc/

Mac-搭建Hadoop集群

然后每个节点分别执行 source /etc/profile ,使profile生效下,并通过java-version简单测试下,jdk复制是否成功:

tjt02:

Mac-搭建Hadoop集群

tjt03:

Mac-搭建Hadoop集群

3、安装hadoop

3.1、上传并解压hadoop

Mac-搭建Hadoop集群

解压:tar zxvf hadoop-2.7.6.tar.gz

Mac-搭建Hadoop集群

3.2、搭建hadoop集群

配置文件在hadoop2.7.6/etc/hadoop/下,修改设置hadoop2.7.6目录下的可执行权限

3.2.1、修改 core-site.xml

[root@tjt01 hadoop]# vi core-site.xml

然后在core-site.xml文件中编辑如下:

<!-- 指定hdfs中namenode的地址 --> 
     <property>
     <name>fs.defaultfs</name>
         <value>hdfs://tjt01:9000</value>
     </property>
<!-- 指定hadoop运行时产生文件的存储目录 --> <property> 
     <name>hadoop.tmp.dir</name>
     <value>/opt/hadoop-2.7.6/data/full/tmp</value>
     </property>

Mac-搭建Hadoop集群

3.2.2、修改hadoop-env.sh

[root@tjt01 hadoop]# vi hadoop-env.sh 

修改java_home:

Mac-搭建Hadoop集群

3.2.3 修改hdfs-site.xml

[root@tjt01 hadoop]# vi hdfs-site.xml 

修改 hdfs-site.xml 的配置如下:

<configuration>

<!-- 设置dfs副本数,不设置默认是3个 --> 
    <property>
        <name>dfs.replication</name>
        <value>2</value>
</property>

<!-- 设置secondname的端口 --> 
<property> 
  <name>dfs.namenode.secondary.http-address</name>
        <value>tjt02:50090</value>
    </property>
</configuration>

Mac-搭建Hadoop集群

3.2.4 修改 slaves

[root@tjt01 hadoop]# vi slaves

增加slaves 配置如下:

tjt01
tjt02
tjt03

Mac-搭建Hadoop集群

3.2.5 修改mapred-env.sh

[root@tjt01 hadoop]# vi mapred-env.sh 

修改其java_home如下:

export java_home=/opt/jdk1.8.0_181

Mac-搭建Hadoop集群

3.2.6 修改mapred-site.xml

[root@tjt01 hadoop]# mv mapred-site.xml.template mapred-site.xml
[root@tjt01 hadoop]# vi mapred-site.xml 

修改其configuration如下:

<configuration>
<!-- 指定mr运行在yarn上 -->
    <property>
     <name>mapreduce.framework.name</name>
     <value>yarn</value>
    </property>
</configuration>

Mac-搭建Hadoop集群

3.2.7 修改yarn-env.sh

[root@tjt01 hadoop]# vi yarn-env.sh 

修改其java_home如下:

export java_home=/opt/jdk1.8.0_181

Mac-搭建Hadoop集群

3.2.8 修改yarn-site.xml

[root@tjt01 hadoop]# vi yarn-site.xml

修改配置如下:

<configuration>
<!-- reducer获取数据的方式 --> 
<property> 
 <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
     </property>
<!-- 指定yarn的resourcemanager的地址 --> 
<property> <name>yarn.resourcemanager.hostname</name> <value>tjt02</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> <description>whether virtual memory limits will be enforced for containers</description> </property> <property> <name>yarn.nodemanager.vmem-pmem-ratio</name> <value>4</value> <description>ratio between virtual memory to physical memory when setting memory limits for containers</description> </property> </configuration>

Mac-搭建Hadoop集群

3.3 分发hadoop到各个节点

[root@tjt01 hadoop]# scp -r /opt/hadoop-2.7.6/ root@tjt02:/opt
[root@tjt01 hadoop]# scp -r /opt/hadoop-2.7.6/ root@tjt03:/opt

3.4 配置环境变量

[root@tjt01 hadoop]# vi /etc/profile

修改配置如下:

export hadoop_home=/opt/hadoop-2.7.6
export path=$path:$hadoop_home/bin:$hadoop_home/sbin

Mac-搭建Hadoop集群

source /etc/profile 使profile文件生效;

[root@tjt01 hadoop]# source /etc/profile

3.5 分发profile到各个节点

[root@tjt01 hadoop]# scp /etc/profile root@tjt02:/etc/
[root@tjt01 hadoop]# scp /etc/profile root@tjt03:/etc/

Mac-搭建Hadoop集群

到各自的服务节点上是profile 生效:

[root@tjt02 ~]# source /etc/profile
[root@tjt03 ~]# source /etc/profile

4 启动验证集群

4.1 启动集群

4.1.1 如果集群是第一次启动,需要格式化namenode
[root@tjt01 hadoop]# hdfs namenode -format

当看到19/05/03 03:45:47 info common.storage: storage directory /opt/hadoop-2.7.6/data/full/tmp/dfs/name has been successfully formatted. 就格式化ok了;

Mac-搭建Hadoop集群

到此为止,上面存在有一个错误,不能在hdfs-site.xml文件中这么写注释【#tjt】:
Mac-搭建Hadoop集群
4.1.2 启动hdfs
[root@tjt01 hadoop-2.7.6]# start-dfs.sh

Mac-搭建Hadoop集群

4.1.3 启动yarn

 如果namenode和resourcemanager不是同一台虚拟机的话,不能在namenode上启动yarn,应该在resourcemanager所在的机器上启动yarn;我的yarn配置在tjt02服务器上,一次需要到tjt02机器上启动yarn

Mac-搭建Hadoop集群

[root@tjt02 hadoop]# start-yarn.sh

Mac-搭建Hadoop集群

4.1.4 jps查看进程
[root@tjt01 hadoop]# jps

Mac-搭建Hadoop集群

[root@tjt02 hadoop]# jps

Mac-搭建Hadoop集群

[root@tjt03 hadoop]# jps

Mac-搭建Hadoop集群

4.1.5 web页面访问

 在虚拟机tjt01*问:http://172.16.114.130:50070

Mac-搭建Hadoop集群

datanode:

Mac-搭建Hadoop集群

在虚拟机tjt02*问:http://172.16.114.131:8088/cluster

Mac-搭建Hadoop集群

 4.2、hadoop停止启动方式

1)各个服务组件逐一启动

分别启动hdfs 组件:

hadoop-deamon.sh start | stop namenode | datnode | secondarynamenode

启动yarn:

yarn-deamon.sh start | stop resourcemanager | nodemanager

2) 各个模块分开启动(常用)

start | stop-dfs.sh
start | stop-yarn.sh

3) 全部启动

start | stop-all.sh

其他

1、关闭防火墙

 //临时关闭
systemctl stop firewalld
//禁止开机启动
systemctl disable firewalld

Mac-搭建Hadoop集群

2、创建用户,设置文件权限

创建用户,修改密码:

[root@tjt01 ~]# useradd tjt
[root@tjt01 ~]# passwd tjt

Mac-搭建Hadoop集群

设置tjt用户具有root权限 修改 /etc/sudoers 文件,找到下面一行,在root下面添加一行,如下所示:

 Mac-搭建Hadoop集群

修改完毕,现在可以用tjt帐号登录,然后用命令 su - ,即可获得root权限进行操作。

 Mac-搭建Hadoop集群

其实,当web页面访问:http://172.16.114.130:50070,可以看到hadoop页面时hadoop集群就成功构建好了。