搭建大数据平台系列(3)-hbase环境搭建

目前本系列文章有:
搭建大数据平台系列(0)-机器准备
搭建大数据平台系列(1)-Hadoop环境搭建[hdfs,yarn,mapreduce]
搭建大数据平台系列(2)-zookeeper环境搭建
搭建大数据平台系列(3)-hbase环境搭建
搭建大数据平台系列(4)-hive环境搭建

1.安装步骤

Hbase的安装需要在hadoop和zookeeper安装完成的基础上进行安装部署,所以,需要在安装hbase前准备好hadoop和zookeeper的环境(请看本系列前几篇文章)

1.下载hbase-1.0.0-cdh5.5.0.tar.gz到master机器的~/bigdataspacce文件夹下
2.解压安装包的命令:
[hadoop@master ~]$ cd  ~/bigdataspacce
[hadoop@master bigdataspace]$  tar -zxvf hbase-1.0.0-cdh5.5.0.tar.gz
3.解压完成后删除压缩包:
[hadoop@master bigdataspace]$  rm hbase-1.0.0-cdh5.5.0.tar.gz
4.修改hbase-env.sh、hbase-site.xml配置文件以及regionservers文件(配置dataNode节点)
    $  cd  /home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0/conf
    $  vi  hbase-env.sh
    # The java implementation to use.  Java 1.7+ required.
# export JAVA_HOME=/usr/java/jdk1.6.0/
(在上面这条注释下加上:)
export JAVA_HOME=/home/hadoop/bigdataspace/jdk1.8.0_60
……
export HBASE_PID_DIR=/data/hbase-1.0.0-cdh5.5.0/pids
# export HBASE_MANAGES_ZK=true   #设置hbase是否管理zookeeper
export HBASE_MANAGES_ZK=true
export HBASE_MANAGES_ZK=false               #使用独立的ZooKeeper时需要修改HBASE_MANAGES_ZK值为false,为不使用默认自带的ZooKeeper实例。
$  vi  hbase-site.xml
(修改配置文件内容为如下)
<configuration>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://master:8020/hbase</value>
    </property>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>slave1,slave2,slave3</value>
    </property>
    <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/data/zookeeper-3.4.5-cdh5.5.0/var/data</value>
    </property>
    <property>
        <name>hbase.tmp.dir</name>
        <value>/data/hbase-1.0.0-cdh5.5.0/tmp</value>
    </property>
</configuration>
(hdfs://master:8020/hbase,这里的hbase目录未建好的话是需要hdfs dfs –mkdir 新建的目录)
$  vi  regionservers
slave1
slave2
slave3
(以上使用对应的ip配置也可以)
5.配置HBASE_HOME
$  vi  /etc/profile
    (加上如下配置)
    export HBASE_HOME=/home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$PATH
6.使用scp命令把hbase分发到各个节点
    $  scp  -r  hbase-1.0.0-cdh5.5.0/ hadoop@slave1:~/bigdataspace/
$  scp  -r  hbase-1.0.0-cdh5.5.0/ hadoop@slave2:~/bigdataspace/
$  scp  -r  hbase-1.0.0-cdh5.5.0/ hadoop@slave3:~/bigdataspace/

    然后在各个节点上执行第5步:配置HBASE_HOME_
7.Hbase的启动与停止
    启动hbase时要确保hdfs已经启动,HBase的启动顺序为:HDFS->Zookeeper->HBase,启动Hbase的命令如下(在master机器上):
    [hadoop@master ~]$  cd  /home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0/bin
(注意,如果设置了hbase管理zookeeper,则需要先关闭手动启动的各节点zookeeper)
    如slave1机器:
    [hadoop@slave1 ~]$  ~/bigdataspace/zookeeper-3.4.5-cdh5.5.0/bin/zkServer.sh  stop
    在master机器:
 [hadoop@master bin]$  ./start-hbase.sh
    
    [hadoop@master bin]$ jps
    29385 HMaster
19994 JobHistoryServer
19068 NameNode
29757 Jps
19422 ResourceManager
19263 SecondaryNameNode
    如slave1机器:
    [hadoop@slave1 bin]$ jps
12768 DataNode
17971 HRegionServer
12884 NodeManager
22704 QuorumPeerMain
18169 Jps
17851 HQuorumPeer  #hbase管理zookeeper的进程, 
#如果export HBASE_MANAGES_ZK=true,才会出现上面的进程


如果HQuorumPeer不存在,而是QuorumPeerMain则表明需要手动关闭zookeeper,hbase才能接手管理。
Hbase停止命令:
[hadoop@master bin]$  ./stop-hbase.sh

2.验证启动成功

访问HBase web 页面:http://master:60010/

    原文作者:抹布先生M
    原文地址: https://www.jianshu.com/p/653b8f5a1dc7
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞