欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Hadoop学习(1)-hdfs安装及其一些操作

程序员文章站 2022-07-09 17:48:39
hdfs:分布式文件系统 有目录结构,顶层目录是: /,存的是文件,把文件存入hdfs后,会把这个文件进行切块并且进行备份,切块大小和备份的数量有客户决定。 存文件的叫datanode,记录文件的切块信息的叫namenode Hdfs的安装 准备四台linux服务器 先在hdp-01上进行下面操作 ......

hdfs:分布式文件系统

有目录结构,顶层目录是:  /,存的是文件,把文件存入hdfs后,会把这个文件进行切块并且进行备份,切块大小和备份的数量有客户决定。

存文件的叫datanode,记录文件的切块信息的叫namenode

hdfs的安装

准备四台linux服务器

先在hdp-01上进行下面操作

  1. 配置域名映射

vim /etc/hosts

主机名:hdp-01  对应的ip地址:192.168.33.61

主机名:hdp-02  对应的ip地址:192.168.33.62

主机名:hdp-03  对应的ip地址:192.168.33.63

主机名:hdp-04  对应的ip地址:192.168.33.64

  1. 更改本机的域名映射文件

c:/windows/system32/drivers/etc/hosts

192.168.33.61  hdp-01

192.168.33.62  hdp-02

192.168.33.63  hdp-03

192.168.33.64  hdp-04

  1. 关闭防火墙

service iptables stop 

setenforce 0

  1. 安装jdk

在linux中 tar –zxvf jdk-8u141-linux-x64.tar.gz –c /root/apps/

然后vim /etc/profile

export java_home=/root/apps/ jdk1.8.0_141

export path=$path:$java_home/bin

然后source /etc/profile

ok

  1. 安装scp

yum install -y openssh-clients

yum list

yum list | grep ssh

  1. 配置免密登录(在hdp-01上)

输入ssh-keygen

然后三次回车

 

然后

ssh-copy-id hdp-02

ssh-copy-id hdp-03

ssh-copy-id hdp-04

 

  1. 然后开始安装hadoop

上传压缩包,然后

[root@hdp-01 ~]# tar -zxvf hadoop-2.8.1.tar.gz -c apps/

然后修改配置文件

要点提示

核心配置参数:

1)         指定hadoop的默认文件系统为:hdfs

2)         指定hdfsnamenode节点为哪台机器

3)         指定namenode软件存储元数据的本地目录

4)         指定datanode软件存放文件块的本地目录

1) 修改hadoop-env.sh

export java_home=/root/apps/ jdk1.8.0_141

 

2) 修改core-site.xml

<configuration>

<property>

<name>fs.defaultfs</name>

<value>hdfs://hdp-01:9000</value>

</property>

</configuration>

 

3) 修改hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/root/hdpdata/name/</value>

</property>

 

<property>

<name>dfs.datanode.data.dir</name>

<value>/root/hdpdata/data</value>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>hdp-02:50090</value>

</property>

 

</configuration>

 

  1. 然后配置hadoop的环境变量 vi /etc/profile

export hadoop_home=/root/apps/hadoop-2.8.1

export path=$path:$java_home/bin:$hadoop_home/bin:$hadoop_home/sbin

  1. 讲apps下的东西和/etc/profile和/etc/hosts/都拷贝到其他的机器上

scp -r /root/apps/hadoop-2.8.1  hdp-02:/root/apps/

scp -r /root/apps/hadoop-2.8.1  hdp-03:/root/apps/

scp -r /root/apps/hadoop-2.8.1  hdp-04:/root/apps/

  1. 初始化元数据目录

hadoop namenode –format(在hdp-01上)

然后启动namenode进程

hadoop-daemon.sh start namenode

然后,在windows中用浏览器访问namenode提供的web端口:50070

http://hdp-01:50070

hadoop内部端口为9000

然后,启动众datanode们(在任意地方)

hadoop-daemon.sh start datanode

 

 

增加datanode随时可以,减少可不能瞎搞。。。。

或者一种方便的启动方法

修改hadoop安装目录中/etc/hadoop/slaves(把需要启动datanode进程的节点列入)

hdp-01

hdp-02

hdp-03

hdp-04

 

在hdp-01上用脚本:start-dfs.sh 来自动启动整个集群

如果要停止,则用脚本:stop-dfs.sh

 

hdfs的客户端会读以下两个参数,来决定切块大小、副本数量:

切块大小的参数: dfs.blocksize

副本数量的参数: dfs.replication

 

上面两个参数应该配置在客户端机器的hadoop目录中的hdfs-site.xml中配置

<property>

<name>dfs.blocksize</name>

<value>64m</value>

</property>

 

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

 

 

至此完成

 

hdfs的一些操作

查看目录信息

hadoop fs -ls /

 

上传文件从/xxx/xx上传到/yy

hadoop fs -put /xxx/xx /yyy

 

hadoop fs -copyfromlocal /本地文件  /hdfs路径   ##  copyfromlocal等价于 put

 

hadoop fs -movefromlocal /本地文件  /hdfs路径  ## 跟copyfromlocal的区别是:从本地移动到hdfs中

 

 

下载文件到本地

hadoop fs -get /hdfs路径 /local路径

 

hadoop fs -copytolocal /hdfs中的路径 /本地磁盘路径   ## 跟get等价

hadoop fs -movetolocal /hdfs路径  /本地路径  ## 从hdfs中移动到本地

 

追加内容到已存在的文件

hadoop fs -appendtofile /本地文件   /hdfs中的文件

 

其他命令和linux的基本差不多只不过前面加hadoop fs –

 

 

 

额外知识

1.

元数据:对数据的描述信息,namenode记录的就叫元数据

2.

配置yum源配置文件

先将那个磁盘挂载到一个文件夹下比如/mnt/cdrom

Hadoop学习(1)-hdfs安装及其一些操作

 

 

然后配置yum

Hadoop学习(1)-hdfs安装及其一些操作

 

 Hadoop学习(1)-hdfs安装及其一些操作

 

 

 

 

 

改为这样的Hadoop学习(1)-hdfs安装及其一些操作

 Hadoop学习(1)-hdfs安装及其一些操作

 

 

3.

命令netstat –nltp 监听端口号

或者ps –ef是查看进程号

4.

 

让防火墙每次开机不重启

chkconfig iptables off

service的执行脚本放在  /etc/service下

凡是能使用   service 服务  动作 的指令

都可以在/etc/init.d目录下执行

例如:  /etc/init.d/sshd start

使用 service 服务 动作  例子  service papche2 restart

其实是执行了一个脚本

/etc/init.d apache2 restatr

 

linux服务器启动的时候分为6个等级

0.表示关机

1.单用户模式

2.无网络的多用户模式

3.有网络的多用户模式

4.不可用

5.图形化界面

6.重新启动

具体和默认的启动等级可以在 /etc/inittab目录下查看

 

查看各个级别下服务开机自启动情况  可以使用  chkconfig --list

 

增加一个自启动服务 chkconfig --add 服务名   例如  chkconfig --add sshd

减少一个自启动服务 chkconfig --add 服务名    例如   chkconfig --del sshd

chkconfig --level 等级 服务  off/on  

chkconfig是当前不生效,linux重启之后才生效的命令(开机自启动项)

service是即使生效,重启后失效的命令

 

5.

c语言写的东西和平台是有关系的,在windows下写的东西放到linux不一定可以

而java可以,因为有java虚拟机

6.

hdfs的url  hdfs://hdp-01:9000/

 

ll –h

 

在类 unix 系统中,/dev/null 称空设备,是一个特殊的设备文件,它丢弃一切写入其中的数据(但报告写入操作成功),读取它则会立即得到一个 eof。

而使用 cat $filename > /dev/null 则不会得到任何信息,因为我们将本来该通过标准输出显示的文件信息重定向到了 /dev/null 中。

使用 cat $filename 1 > /dev/null 也会得到同样的效果,因为默认重定向的 1 就是标准输出。 如果你对 shell 

 

7

cat 来拼接两个文件,如在hdfs下的两个block文件

 Hadoop学习(1)-hdfs安装及其一些操作

 

如此拼接就成了一个完整的源文件

源文件的路径在

 Hadoop学习(1)-hdfs安装及其一些操作

 

 

 

java客户端的api

//官方文档

//先把hadoop安装包解压后的share目录下的hadoop目录下的相关jar包都拷到你的esclipe下。

//http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml

//会先默认读取classpath中加载的core-default.xml.hdfs-default.xml core-size.xml....

//这些都是一个个jar包,你也可以在src目录下自己写一个hdfs-site.xml文件

 

configuration conf = new configuration();

conf.set("dfs.replication","2");//指定副本数

conf.set("dfs.blocksize","64m");//指定切块大小

 

 

//模拟一个客户端

filesystem fs = filesystem.get(new uri("hdfs://hdp-01:9000/"),conf,"root");

然后可以通过fs.xxxxx的方法来使用