Hadoop HA的实现方式
上图大致架构包括:
1、 利用共享存储来在两个NN间同步edits信息。以前的HDFS是share nothing but NN,现在NN又share storage,这样其实是转移了单点故障的位置,但中高端的存储设备内部都有各种RAID以及冗余硬件包括电源以及网卡等,比服务器的可靠性还是略有提高。通过NN内部每次元数据变动后的flush操作,加上NFS的close-to-open,数据的一致性得到了保证。
2、DataNode同时向两个NN汇报块信息。这是让Standby NN保持集群最新状态的必需步骤。
3、用于监视和控制NN进程的FailoverController进程显然,我们不能在NN进程内进行心跳等信息同步,最简单的原因,一次FullGC就可以让NN挂起十几分钟,所以,必须要有一个独立的短小精悍的watchdog来专门负责监控。这也是一个松耦合的设计,便于扩展或更改,目前版本里是用ZooKeeper(以下简称ZK)来做同步锁,但用户可以方便的把这个ZooKeeper FailoverController(以下简称ZKFC)替换为其他的HA方案或leader选举方案。
4、 ),防止),就是保证在任何时候只有一个主NN,包括三个方面:
a) 共享存储fencing,确保只有一个NN可以写入edits。
b) 客户端fencing,确保只有一个NN可以响应客户端的请求。
c) DataNode fencing,确保只有一个NN可以向DN下发命令,譬如删除块,复制块,等等。
部署环境介绍
系统环境: centos6.4 x86_64
Hadoop2.4.1
Jdk 1.7.0
hadoop环境:5台vmware虚拟机
Namenode1 192.168.1.10 zkfc
Namenode2 192.168.1.11 zkfc
Datanode1 192.168.1.12 Zookeeper
Datanode2 192.168.1.13 Zookeeper
Datanode3 192.168.1.14 Zookeeper
安装配置jdk
#tar -xvf jdk-7u60-linux-x64.tar.gz#mv jdk1.7.0_60 /usr
在/etc/profile最后加入
export JAVA_HOME=/usr/jdk1.7.0_60export JAVA_OPTS="-Xms1024m-Xmx1024m"export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATHexport PATH=.:$PATH:$JAVA_HOME/bin
# source /etc/profile
# java -version
java version "1.7.0_60"Java(TM) SE Runtime Environment (build 1.7.0_60-b19)Java HotSpot(TM) 64-Bit Server VM (build 24.60-b09,mixed mode)
配置系统信息
/etc/hosts (所有机子上一样)
192.168.1.10 namenode1192.168.1.11 namenode2192.168.1.12 datanode1192.168.1.13 datanode2192.168.1.14 datanode3
添加ssh密钥认证,使hadoop所有几点间可以互相访问
# useradd hadoop
# passwd hadoop
# su – hadoop
$ ssh-keygen
$ ssh-copy-id -iid_rsa.pub namenode2
$ ssh-copy-id -iid_rsa.pub datanode1
$ ssh-copy-id -iid_rsa.pub datanode2
$ ssh-copy-id -iid_rsa.pub datanode3
Zookeeper安装配置
Zookeeper是google的chubby的开源实现,是一个高效、可靠地协同工作系统。在此我们使用zookeeper监控实现namenode的故障自动切换。我们把zookeeper服务端程序安装在3台DN上,NN1和NN2上运行zkfc进程。
1、下载zookeeper-3.4.6.tar.gz
2、将tar包解压到指定目录
tar zxvfzookeeper-3.4.6.tar.gz
3、修改zookeeper配置, 将zookeeper安装目录下conf/zoo_sample.cfg重命名为zoo.cfg, 修改其中的内容:
# The number of milliseconds of each ticktickTime=2000 #服务器与客户端之间交互的基本时间单元(ms)# The number of ticks that the initial # synchronization phase can takeinitLimit=10 #zookeeper所能接受的客户端数量# The number of ticks that can pass between # sending a request and getting an acknowledgementsyncLimit=5 #服务器和客户端之间请求和应答之间的时间间隔# the directory where the snapshot is stored.# do not use /tmp for storage, /tmp here is just # example sakes.dataDir=/home/hadoop/zookeeper #保证zookeeper数据,日志的路径# the port at which the clients will connectclientPort=2181 #客户端与zookeeper相互交互的端口server.1= datanode1:2888:3888server.2= datanode2:2888:3888server.3= datanode3:2888:3888#server.A=B:C:D 其中A是一个数字,代表这是第几号服务器;B是服务器的IP地址;C表示服务器与群集中的“领导者”交换信息的端口;当领导者失效后,D表示用来执行选举时服务器相互通信的端口。## Be sure to read the maintenance section of the # administrator guide before turning on autopurge.##http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance## The number of snapshots to retain in dataDir#autopurge.snapRetainCount=3# Purge task interval in hours# Set to "0" to disable auto purge feature#autopurge.purgeInterval=1
4、在配置的dataDir目录下创建一个myid文件,里面写入一个0-255之间的一个随意数字,每个zookeeper上这个文件的数字要是不一样的,这些数字应该是从1开始,依次写每个服务器。
5、分别启动所有的zookeeper
bin/zkServer.sh start
启动进程:QuorumPeerMain
6、使用客户端连接zookeeper测试是否成功
bin/zkCli.sh -server ip地址:clientPort
Hadoop安装配置
注:x64系统下不能直接下载编译好的二进制包,官网上的二进制包是32环境下的,会出现无法加载本地块的情况,在官网下载源码包自己手动编译。
1、下载hadoop-2.4.1-src.tar.gz
2、编译过程略,完成后在hadoop-2.4.1-src/hadoop-dist/target目录下取包:
hadoop-2.4.1.tar.gz
3、解压hadoop-2.4.1.tar.gz 到目录/home/hadoop
tar -xvf hadoop-2.4.1.tar.gz -C /home/hadoop
4、修改环境变量:
vi /etc/profileexportHADOOP_HOME=/home/hadoop/hadoopexportHADOOP_COMMON_HOME=$HADOOP_HOMEexportHADOOP_HDFS_HOME=$HADOOP_HOMEexportHADOOP_MAPRED_HOME=$HADOOP_HOMEexportHADOOP_YARN_HOME=$HADOOP_HOMEexportHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopexport PATH=.:$PATH:$JAVA_HOME/bin:/$HADOOP_HOME/bin:/$HADOOP_HOME/sbin
5、 修改hadoop安装目录下etc/hadoop/hadoop-env.sh 文件末尾添加java环境变量
exportJAVA_HOME=/usr/jdk1.7.0_60
6、修改hadoop安装目录下etc/hadoop/core-site.xml如下:
fs.defaultFS hdfs://mycluster ha.zookeeper.quorum datanode1:2181, datanode2:2181,datanode3:2181 hadoop.security.authorization false
7、 修改hadoop安装目录下etc/hadoop/core-site.xml如下:
dfs.nameservices mycluster dfs.namenode.name.dir /opt/name dfs.ha.namenodes.mycluster nn1,nn2 dfs.namenode.rpc-address.mycluster.nn1 namenode1:9000 dfs.namenode.rpc-address.mycluster.nn2 namenode2:9000 dfs.namenode.http-address.mycluster.nn1 namenode1:50070 dfs.namenode.http-address.mycluster.nn2 namenode2:50070 dfs.namenode.shared.edits.dir /opt/nameshare dfs.client.failover.proxy.provider.mycluster org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods sshfence dfs.ha.fencing.ssh.private-key-files /home/hadoop/.ssh/id_rsa dfs.ha.automatic-failover.enabled true ha.zookeeper.quorum datanode1:2181, datanode2:2181,datanode3:2181 dfs.data.dir /opt/sdb/data dfs.permissions false
8、 修改hadoop安装目录下etc/hadoop/slave如下:
datanode1datanode2datanode3
9、在NN上配置nfs共享目录
nn1和nn2任意一个作为server,另一个为client
Server端
# rpm -qa |grep nfs
nfs-utils-lib-1.1.5-6.el6.x86_64
nfs-utils-1.2.3-39.el6_5.3.x86_64
如果没有需要安装
# yum -y install nfs-utils
Nfs里会有两个主程序rpcbind 和 nfs-utils (在 CentOS 5.x 以前这个软件称为 portmap,在 CentOS 6.x 之后才称为 rpcbind 的!)
# /etc/init.d/portmap start# /etc/init.d/nfs start# chkconfig --level 35 portmap on# chkconfig --level 35 nfs on# mkdir /opt/nameshare# cat /etc/exports/opt/nameshare 192.168.1.10/24(rw,no_root_squash,async) #红色表示允许挂载的ip# exportfs–v
10、在NN2上挂载NFS目录
Client 端
# showmount -e 192.168.1.10 #红色表示nfs服务器ip# mkdir /opt/nameshare# chmod 600 /opt/nameshare# mount 192.168.1.10:/opt/nameshare /opt/nameshare
df –h 可以查看到挂载信息
设置开机自动挂载,添加下边这行到/etc/fstab
192.168.1.10:/opt/namshare /opt/nameshare nfs defaults 0 0
# mount –a
11、在NN上设置nfs共享目录所属权限给用户hadoop
chown -R hadoop.hadoop /opt/nameshare
12、分别在3个DN上建立数据目录
mkdir -p /opt/sdb/datachown -R hadoop.hadoop /opt/sdb
13、在NN和NN1上建立目录
mkdir /opt/namechown -R hadoop.hadoop /opt/name
14、复制NN上配置好的hadoop目录到另外4个节点
scp -r /home/hadoop/hadoop-2.4.1 namenode2:/home/hadoopscp -r /home/hadoop/hadoop-2.4.1 datanode1:/home/hadoopscp -r /home/hadoop/hadoop-2.4.1 datanode2:/home/hadoopscp -r /home/hadoop/hadoop-2.4.1 datanode3:/home/hadoop
15、格式化namenode,首先在NN上执行:
hadoop namenode -format –clusterid mycluster
16、格式化完成后,把NN节点上/opt/name目录下生成的文件完全拷贝到NN1节
点的/opt/name目录里。
cd /opt/namescp -r * namenode2:/opt/name
17、格式化zfkc,在zookeeper客户端NN、NN1上执行
bin/hdfs zkfc –formatZK
18、启动hadoop分布式系统
sbin/start-dfs.sh
启动成功后NN和NN1上启动进程:
NameNode
DFSZKFailoverController
DN上启动进程:
DataNode
QuorumPeerMain
19、通过web查看hdfs启动情况
NN1 http://192.168.1.10:50070
NN2
上图可看出两个namenode一主一备都启动成功。
20、HDFS(HA)的管理
使用如下命令设置Active 节点 (手动方式)
bin/hdfs haadmin –DFSHAadmin –transitionToActive nn1
如果让nn2 成为变为active nn1 变为standby ,则
bin/hdfs haadmin -DFSHAadmin -failover nn1 nn2
如果失败(is not ready to become active) 则
bin/hdfs haadmin -DFSHAadmin -failover --forceactive nn1 nn2
具体参照bin/hdfs haadmin命令
21、验证高可用是否成功
当前NN1处于Active状态,手动停掉NN1上的namenode进程
hadoop-daemon.sh stop namenode
再次查看NN1和NN2的状态,可以看到NN2变为Active。
手动重启启动NN1上的namenode进程后,发现NN上的现在为Standby状态,高可用成功。
附上hadoop2.4.1 x86_64环境下编译完成的二进制文件。
http://url.cn/RYHewW