完全分布式HBase环境搭建【主要流程记录】

本文记录了完全分布式Hbase数据库安装过程中的主要流程以及遇到的问题。
若要查看详细操作步骤可以参考文末的资料。

1 安装HDFS

架构

3台虚拟机,名字分别为master,hadoop-2,hadoop-3。其中master为NameNode,其余机器为DataNode。

系统环境

Ubuntu 18.04操作系统

Hadoop版本

2.7.7

流程

(1/6) 先创建一台主机,完成基础配置,避免重复的工作
  1. 使用Vmware软件,虚拟出1台主机,命名为master,作为Master节点,并安装Ubuntu18.04操作系统。
  2. 在这台机器中,配置 hadoop 用户、安装 SSH server、安装 Java 环境、设置环境变量、安装必要的软件(vim,curl,wget等)。
(2/6) 克隆主机,修改网卡,修改hosts文件
  1. 克隆两个副本,分别命名为hadoop-2和hadoop-3。
  2. 开机前先修改副本的网卡地址(Mac地址),开机后确保ip互不相同。
  3. 修改主机名,修改hosts文件使主机名与ip地址对应。【127.0.0.1 localhost】一项需保留,文件IPv4部分的其他已有条目可删除。

《完全分布式HBase环境搭建【主要流程记录】》 hosts.jpg

(3/6) 配置ssh,使master可无密码登录至所有节点
  1. 在master中生成密钥,将生成的id_rsa.pub文件追加到authorized_keys文件中;
  2. 将master中生成的id_rsa.pub文件拷贝到hadoop2和hadoop3节点中,分别追加至authorized_keys文件中;
  3. 使用ssh测试能否从master节点无密码登录master、hadoop2、hadoop3节点。
(4/6) 在master中安装Hadoop,修改配置文件
  1. 解压hadoop文件至/usr/local文件夹,使用 chown -R 命令修改文件所属;
  2. 修改/usr/local/hadoop/etc/hadoop 中的5个配置文件:slaves、core-site.xmlhdfs-site.xmlmapred-site.xmlyarn-site.xml
  3. 具体内容如下:
  • slaves
hadoop-2
hadoop-3
  • core-site.xml
<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>file:/usr/local/hadoop/tmp</value>
                <description>Abase for other temporary directories.</description>
        </property>
</configuration>
  • hdfs-site,xml
<configuration>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>master:50090</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
</configuration>
  • mapred-site.xml
<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>master:10020</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>master:19888</value>
        </property>
</configuration>
  • yarn-site.xml
<configuration>
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>master</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>
(5/6) 将master中的hadoop复制到其他节点中
  1. 打包hadoop文件夹中所有文件,拷贝到hadoop-2、hadoop-3中;
  2. 在hadoop-2、hadoop-3中分别解压,到/usr/local目录下,修改所属用户。
(6/6) 运行hadoop,验证是否安装成功
  1. 格式化,在master运行:hdfs namenode -format
  2. 启动hadoop:
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver
  1. 通过web查看运行状态:http://master:50070
  2. 关闭hadoop:
stop-yarn.sh
stop-dfs.sh
mr-jobhistory-daemon.sh stop historyserver

至此,HDFS就安装成功了,可以在其上面运行MapReduce任务等操作。

2 安装HBase

HBase 版本

1.3.2

架构

Node NameMasterZooKeeperRegionServer
masteryesyesno
hadoop-2backupyesyes
hadoop-3noyesno

流程

(1/4) 在master中安装HBase,修改配置文件
  1. 解压HBase文件至/usr/local文件夹,使用 chown -R 命令修改文件所属;
  2. 修改/usr/local/hbase/conf下的配置文件:regionservers,backup-masters,hbase-site.xml
  3. 具体内容如下:
  • regionservers
hadoop-2
hadoop-3
  • backup-masters (若没有,需要手动创建)
hadoop-2
  • hbase-site.xml
<configuration>
<property>
  <name>hbase.cluster.distributed</name>
  <value>true</value>
</property>
<property>
  <name>hbase.rootdir</name>
  <value>hdfs://master:9000/hbase</value>
</property>
<property>
  <name>hbase.zookeeper.quorum</name>
  <value>master,hadoop-2,hadoop-3</value>
</property>
<property>
  <name>hbase.zookeeper.property.dataDir</name>
  <value>/usr/local/zookeeper</value>
</property>
</configuration>
(2/4) 在hadoop-2中,进行中安装Hadoop的第3步,使得hadoop-2可以无密码登录所有节点

进行这一步的原因是hadoop-2作为master的备份,也需要访问的其他节点权限。具体步骤参考安装Hadoop的第3步。

(3/4) 将hbase文件夹复制到其他节点中
  1. 打包hbase文件夹中所有文件,拷贝到hadoop-2、hadoop-3中;
  2. 在hadoop-2、hadoop-3中分别解压,到/usr/local目录下,修改所属用户。
(4/4) 运行hbase,验证是否安装成功
  1. 启动hbase:start-hbase.sh;
  2. 使用jps查看进程,按照以上步骤安装后,正常情况下的输出结果为 (id可以不同):
master
26721 NameNode
31985 HMaster
31906 HQuorumPeer
26981 SecondaryNameNode
34088 Bootstrap
36489 Jps
27148 ResourceManager
27437 JobHistoryServer

hadoop-2
19968 Jps
15056 DataNode
18802 HMaster
18506 HQuorumPeer
15228 NodeManager
18653 HRegionServer

hadoop-3
12592 NodeManager
14946 HRegionServer
12422 DataNode
14792 HQuorumPeer
16090 Jps
  1. 进入hbase命令行:hbase shell;
  2. 完成基本的创建表,查询,删除等操作。若能正常运行,则说明安装成功;
  3. 通过web查看HBase运行状态:http://master:16010
  4. 停止hbase:stop-hbase.sh

这样,HBase 就安装成功了。

关机时,要先关闭HBase ,再关闭yarn和hdfs。不正确的关闭顺序可能导致下次HBase 无法正常启动

3 遇到的问题

1. 启动Hadoop或HBase 时,提示JAVA_HOME没有设置,但实际上已经在/etc/profile中设置了。

解决:分别在hadoop的 hadoop-env.sh文件和hbase的hbase-env.sh 文件中,再次设置JAVA_HOME即可。

2. 重新格式化HDFS后,再次启动hadoop失败

解决:在格式化之前,需要删除每个节点hadoop文件夹下的tmp文件夹和logs文件夹,以删除之前的数据和日志。

3. HBase 启动失败

解决:导致HBase 启动失败的原因有很多,我遇到的主要有以下几个:

  • 在配置文件中指定的zookeeper存放目录,没有访问权限。需要将其所有者设置为当前用户
  • hosts文件配置错误,或者有不必要的项目
  • 检查主节点master和备份主节点hadoop-2能否无密码登录所有节点,包括自身

如果尝试过很多方案都没有效果,那么最好的办法是重装一遍,避免浪费更多的时间。

4. 安装curl失败,原因是curl的某个依赖包在本地已存在一个更高的版本。

解决:尝试使用aptitude完成降级安装,但遇到新的错误。最终我是将那个已安装的依赖包删除,才装上了curl。
警告:装好后过了一段时间,这台主机莫名其妙的断网并且无法进入图形界面,不知道是不是和我删除了那个依赖包有关。因此不推荐删除依赖包的方法。

参考资料(有详细步骤)

Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS
HBase 官方文档

    原文作者:涛O_O
    原文地址: https://www.jianshu.com/p/a5f0bf130709
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞