大数据开发环境搭载7--安装HBase集群

7、安装HBase集群

  • 下载
http://apache.fayea.com/hbase/stable/hbase-1.2.5-bin.tar.gz
  • 将HBase安装到/usr/local/hbase
tar -xvzf hbase-1.2.5-bin.tar.gz -C /usr/local
mv /usr/local/hbase-1.2.5-bin /usr/local/hbase
  • 修改/etc/profile,末尾添加以下内容:
# HBase
export HBASE_HOME=/usr/local/hbase
export PATH=$PATH:$HBASE_HOME/bin
  • 将hadoop的配置hdfs-site.xml和core-site.xml 放到hbase/conf下
cp /usr/local/hadoop/etc/hadoop/core-site.xml /usr/local/hbase/conf/
cp /usr/local/hadoop/etc/hadoop/hdfs-site.xml /usr/local/hbase/conf/
  • 修改hbase-env.sh
# 设置hbse使用外部的zk和使用的jdk
export HBASE_MANAGES_ZK=false
export JAVA_HOME=/usr/local/jdk1.7.0_65
  • 修改hbase-site.xml
<configuration>
    <!-- 指定hbase在HDFS上存储的路径 --> 
    <property> 
        <name>hbase.rootdir</name> 
        <value>hdfs://bigdata/hbase</value> 
    </property> 
    <!-- 指定hbase是分布式的 --> 
    <property> 
        <name>hbase.cluster.distributed</name>
        <value>true</value> </property> 
    <!-- 指定zk的地址,多个用“,”分割 --> 
    <property> 
        <name>hbase.zookeeper.quorum</name>  
        <value>node1:2181,node2:2181,node3:2181</value> 
    </property>
</configuration>
  • 编辑从节点regionservers启动脚本
node3
node4
node5
node6
  • 将hbase复制到其他机器上
scp -r /usr/local/hbase/ root@node2:/usr/local
scp -r /usr/local/hbase/ root@node3:/usr/local
scp -r /usr/local/hbase/ root@node4:/usr/local
scp -r /usr/local/hbase/ root@node5:/usr/local
scp -r /usr/local/hbase/ root@node6:/usr/local
  • 启动集群
# 在启动hbase集群之前要确保hdfs和zookeeper集群已经打开
# 在node1机器上开启集群
start-hbase.sh
# 在node2机器上再开启一个Hmaster进程作为备的Hmaster,以达到高可靠
hbase-daemon.sh start master
  • 验证地址
http://node1:16010
    原文作者:OctaviusWoo
    原文地址: https://www.jianshu.com/p/f30f3bd1b83f
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞