目前本系列文章有:
搭建大数据平台系列(0)-机器准备
搭建大数据平台系列(1)-Hadoop环境搭建[hdfs,yarn,mapreduce]
搭建大数据平台系列(2)-zookeeper环境搭建
搭建大数据平台系列(3)-hbase环境搭建
搭建大数据平台系列(4)-hive环境搭建
1.安装步骤
Hbase的安装需要在hadoop和zookeeper安装完成的基础上进行安装部署,所以,需要在安装hbase前准备好hadoop和zookeeper的环境(请看本系列前几篇文章)
1.下载hbase-1.0.0-cdh5.5.0.tar.gz到master机器的~/bigdataspacce文件夹下
2.解压安装包的命令:
[hadoop@master ~]$ cd ~/bigdataspacce
[hadoop@master bigdataspace]$ tar -zxvf hbase-1.0.0-cdh5.5.0.tar.gz
3.解压完成后删除压缩包:
[hadoop@master bigdataspace]$ rm hbase-1.0.0-cdh5.5.0.tar.gz
4.修改hbase-env.sh、hbase-site.xml配置文件以及regionservers文件(配置dataNode节点)
$ cd /home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0/conf
$ vi hbase-env.sh
# The java implementation to use. Java 1.7+ required.
# export JAVA_HOME=/usr/java/jdk1.6.0/
(在上面这条注释下加上:)
export JAVA_HOME=/home/hadoop/bigdataspace/jdk1.8.0_60
……
export HBASE_PID_DIR=/data/hbase-1.0.0-cdh5.5.0/pids
# export HBASE_MANAGES_ZK=true #设置hbase是否管理zookeeper
export HBASE_MANAGES_ZK=true
export HBASE_MANAGES_ZK=false #使用独立的ZooKeeper时需要修改HBASE_MANAGES_ZK值为false,为不使用默认自带的ZooKeeper实例。
$ vi hbase-site.xml
(修改配置文件内容为如下)
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:8020/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>slave1,slave2,slave3</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/data/zookeeper-3.4.5-cdh5.5.0/var/data</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/data/hbase-1.0.0-cdh5.5.0/tmp</value>
</property>
</configuration>
(hdfs://master:8020/hbase,这里的hbase目录未建好的话是需要hdfs dfs –mkdir 新建的目录)
$ vi regionservers
slave1
slave2
slave3
(以上使用对应的ip配置也可以)
5.配置HBASE_HOME
$ vi /etc/profile
(加上如下配置)
export HBASE_HOME=/home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$PATH
6.使用scp命令把hbase分发到各个节点
$ scp -r hbase-1.0.0-cdh5.5.0/ hadoop@slave1:~/bigdataspace/
$ scp -r hbase-1.0.0-cdh5.5.0/ hadoop@slave2:~/bigdataspace/
$ scp -r hbase-1.0.0-cdh5.5.0/ hadoop@slave3:~/bigdataspace/
然后在各个节点上执行第5步:配置HBASE_HOME_
7.Hbase的启动与停止
启动hbase时要确保hdfs已经启动,HBase的启动顺序为:HDFS->Zookeeper->HBase,启动Hbase的命令如下(在master机器上):
[hadoop@master ~]$ cd /home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0/bin
(注意,如果设置了hbase管理zookeeper,则需要先关闭手动启动的各节点zookeeper)
如slave1机器:
[hadoop@slave1 ~]$ ~/bigdataspace/zookeeper-3.4.5-cdh5.5.0/bin/zkServer.sh stop
在master机器:
[hadoop@master bin]$ ./start-hbase.sh
[hadoop@master bin]$ jps
29385 HMaster
19994 JobHistoryServer
19068 NameNode
29757 Jps
19422 ResourceManager
19263 SecondaryNameNode
如slave1机器:
[hadoop@slave1 bin]$ jps
12768 DataNode
17971 HRegionServer
12884 NodeManager
22704 QuorumPeerMain
18169 Jps
17851 HQuorumPeer #hbase管理zookeeper的进程,
#如果export HBASE_MANAGES_ZK=true,才会出现上面的进程
如果HQuorumPeer不存在,而是QuorumPeerMain则表明需要手动关闭zookeeper,hbase才能接手管理。
Hbase停止命令:
[hadoop@master bin]$ ./stop-hbase.sh
2.验证启动成功
访问HBase web 页面:http://master:60010/