机器的 IP 与 hostname
192.168.66.3 master
192.168.66.4 slave01
1.安装zookeeper(参考kafka集群部署中的zookeeper安装)
2.配置时间同步
使用date命令查看,如果时间不同步,请设置时间同步
3.解压hbase安装包并授权(hadoop用户)
cd /usr/local/lib/hbase-1.2.6
tar zxvf hbase-hbase-1.2.6-bin.tar.gz
chown -R hadoop:hadoop hbase-hbase-1.2.6
chmod -R 755 hbase-hbase-1.2.6
4.配置环境变量
vim /etc/profile
export HBASE_HOME=/usr/local/lib/hbase-1.2.6
export PATH=$HBASE_HOME/bin:$PATH
#立即生效
source /etc/profile
5.修改配置文件hbase-env.sh
vim hbase-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_92
export HBASE_MANAGES_ZK=false #(若不使用hbase自带的zookeeper需设置成false)
6.修改配置文件hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
<description>指定 hbase 在 HDFS 上存储的路径,保持与core-site.xml 中的hdfs路径一致</description>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
<description>指定 hbase 是分布式的</description>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master:2181,slave01:2181</value>
<description>指定 zk 的地址</description>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/sdnmuser/zookeeper-3.4.6/data</value>
</property>
<property>
<name>hbase.master.maxclockskew</name>
<value>150000</value>
<description>时间同步允许的时间差</description>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
<description>web ui 端口</description>
</property>
</configuration>
7.设置regionservers
vi /home/hadoop/hbase-1.2.6/conf/regionservers
master
slave01
8.复制到其余节点上,并修改其余节点上的环境
cd /home/hadoop
scp -r hbase-1.2.6/ root@192.168.66.4:/usr/local/lib
修改192.168.66.4的 /etc/profile 环境,与第六步一样
9.配置master 到其余节点的免密登录
ssh-keygen
# 一路回车
运行结束以后, 默认在 ~/.ssh目录生成两个文件:
id_rsa #私钥
id_rsa.pub #公钥
复制到需要登录的服务器上
scp -r id_rsa.pub hadoop@192.168.66.4:/home/hadoop
登录到服务器上导入公钥
ssh hadoop@192.168.66.4
#输入指令
cat id_rsa.pub >> ~/.ssh/authorized_keys
10.启动hbase集群
到master 节点的机器上
su - hadoop #切换到hadoop用户
cd /usr/local/lib/hbase-1.2.6/bin
# 启动
sh start-hbase.sh
11.查看web ui 界面
#查看
192.168.66.3:60010