Hadoop+Hive+HBase+Kylin 安装指南(2018年5月更新)

操作系统

因为公司的服务器上用的RedHat Linux 6,所以本安装指南也是基于RedHat完成的,但是其它版本,如Ubuntu、CentOS等也可参考,无本质上的差异。

服务器集群

本次测试环境只有3台服务器,所以一台做主结点,另外两台做数据结点。

软件版本

2018年1月完成的本次安装,所以使用的软件版本如下所示,选用的均是稳定版本。

  • jdk-8u144-linux-x64.rpm
  • hadoop-2.7.4.tar.gz
  • hbase-1.2.6-bin.tar.gz
  • apache-hive-1.2.2-bin.tar.gz
  • zookeeper-3.4.10.tar.gz
  • apache-kylin-2.2.0-bin-hbase1x.tar.gz

一般情况下,我们都是在一台服务器上做完hadoop,zookeeper,hbase等的配置,然后拷贝到集群里另外的服务器上直接使用。有的情况配置稍作一点修改,请大家注意。更多我的文字可以到:数圈儿进一步关注。

操作步骤

1. 集群服务器系统环境准备

1.1 修改主机名,方便通过主机名进行网络互通
为了操作方便,先给3台服务器起个名字。linux修改主机名的方法如下:
hostname命令可以临时修改机器名,但机器重新启动之后就会恢复原来的值。

hostname     //查看机器名
hostname -i  //查看本机器名对应的ip地址

1.2 另外一种方法就是修改“/etc/hosts”这个文件
系统重启后仍然有效,所以我们采用这个方法修改3台服务器的主机名

修改/etc/hosts文件,对于统本身用到主机名的地方不会变化。这是因为hosts 是网络中用的,解决的是类似DNS的问题。/etc/sysconfig/network是本机自己使用的。
详细可参考:https://blog.csdn.net/trochiluses/article/details/11483591

我的hosts文件示例:

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

172.20.10.40 BI01
172.20.10.41 BI02
172.20.10.42 BI03

这里3台服务器分别取名为BI01,BI02和BI03.

1.3 RedHat配置本地Yum仓库
公司服务器上RedHat是安装的Basic Server版本,大量常用软件没有安装。同事把安装光盘挂载到了服务器上,这里是创建一个本地的仓库指向光盘,方便快速的安装需要的软件
详细参考:http://www.runoob.com/linux/linux-yum.html

具体按照如下步骤进行:
步骤一:将RHEL6光盘手动挂载到/media

[root@localhost ~]# mount /dev/cdrom /media/
mount: block device /dev/sr0 is write-protected, mounting read-only
[root@localhost ~]# mount | tail -1
/dev/sr0 on /media type iso9660 (ro)

步骤二:将本地设置为客户端,进行Yum验证
命令操作如下所示:

[root@localhost ~]# cd /etc/yum.repos.d/         //必须在这个路径下
[root@localhost yum.repos.d]# ls                  //此路径下事先有配置文件的模板
rhel-source.repo

[root@localhost yum.repos.d]# cp rhel-source.repo rhel6.repo //配置文件必须以.repo结尾
[root@localhost yum.repos.d]# vim rhel6.repo
[rhel-6]                                  //括号里的ID要求唯一,但不要出现特殊字符
name=Red Hat Enterprise Linux 6           //描述信息,可以看情况填写
baseurl=file:///media/                   //yum软件仓库位置,指向光盘挂载点
enabled=1                                //是否开启,1为开启,0为不开启
gpgcheck=1                               //是否检查签名,1为监测,0为不检测
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release   //签名认证信息的路径

步骤三:加载上一个步骤中新建的仓库

[root@localhost /]# yum repolist
Loaded plugins: product-id, refresh-packagekit, security, subscription-manager
This system is not registered to Red Hat Subscription Management SinanWu. You can use subscription-manager to register.
rhel-6                                            | 3.9 kB     00:00 ... 
rhel-6/primary_db                                 | 3.1 MB     00:00 ... 
repo id             repo name                                     status
rhel-6              Red Hat Enterprise Linux 6                    3,690
repolist: 3,690

我的实际操作如下:

[root@BI01 ~]# ls /apps/cdrom/
[root@BI01 yum.repos.d]# vi rhel-local.repo
[rhel-local]
name=Red Hat Enterprise Linux $releasever - $basearch - Local
baseurl=file:///apps/cdrom/
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

1.4 安装缺失的vim,ssh client等软件

[root@BI01 /]# yum -y install vim
[root@BI01 /]# yum -y install openssh-clients

1.5 安装JDK 8
上传JDK,使用yum本地安装进行

[root@BI02 downloads]# yum localinstall jdk-8u144-linux-x64.rpm

1.6 新建大数据平台用户
不推荐使用root用户来进行安装,我们需要为整个大数据平台创建独立的用户
RedHat下使用命令:

[root@BI01 downloads]# groupadd bigdata
[root@BI03 downloads]# useradd -g bigdata bdp

详细参考:http://www.cnblogs.com/clicli/p/5943788.html

1.7 RadHat为普通用户添加sudo权限
对sudoers的修改需要root权限,因此先登录root用户:

su - root

sudoers文件默认是只读的,所以要先修改一下它的权限:

chmod u+w /etc/sudoers

使用vi修改sudoers文件

vi /etc/sudoers

找到如下这行:
root ALL=(ALL) ALL
如果你的用户名是bigdata,那么在上面这行的下面增加如下内容:
bigdata ALL=(ALL) ALL
从vi中保存退出,再将sudeors文件的权限修改回来:

chmod u-w /etc/sudoers

最后就是退出shell,再重新登录。修改完成后一定记得检查语法:

visudo -c

确保/etc/sudoers默认的权限是440(防止权限误用)

1.8 SSH免密码设置
因为集群多台服务器之间需要协同工作,原理就是执行脚本的时候,有时候要远程执行其他服务器上的命令,说白了就是ssh过去,执行相应命令。但是建立ssh连接是需要口令的,为了能让服务器之间免密码登录,就需要利用公钥体系做一个授权。

这个网上有很多资料和说明,百度“ssh 免密”
详细可参考:https://blog.csdn.net/universe_hao/article/details/52296811

步骤一:每个服务器上运行命令产生pub key

ssh-keygen -t rsa   //一路回车就好

步骤二:每个服务器上把自己pub key拷贝到其它的机器上,包括自己本机

ssh-copy-id -i ~/.ssh/id_rsa.pub BI01
ssh-copy-id -i ~/.ssh/id_rsa.pub BI02
ssh-copy-id -i ~/.ssh/id_rsa.pub BI03

2.Hadoop安装

其实网上已经有很多hadoop集群安装的帖子,但还是会碰到一些新问题,大家可以先阅读下的两篇帖子。我把我实际安装的时候记录在后面作为补充
超详细从零记录Hadoop2.7.3完全分布式集群部署过程
http://blog.csdn.net/dream_an/article/details/52946840
补充材料:hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布式集群HA部署
http://www.aboutyun.com/forum.php?mod=viewthread&tid=13679

所有安装包解压到一个目录下面,例如我的是:/home/bdp/opt/

[bdp@BI01 opt]$ ls -al
total 48
drwxr-xr-x. 12 bdp bigdata 4096 Dec  1 15:12 .
drwx------. 10 bdp bigdata 4096 May 17 14:39 ..
drwxr-xr-x. 12 bdp bigdata 4096 Nov 20 13:10 hadoop-2.7.4
drwxr-xr-x.  9 bdp bigdata 4096 Nov 30 09:05 hbase-1.2.6
drwxr-xr-x. 11 bdp bigdata 4096 Nov 10  2017 hive-1.2.2
drwxr-xr-x. 15 bdp bigdata 4096 Aug 31  2017 impala-2.10.0
drwxr-xr-x. 12 bdp bigdata 4096 Jan  2 14:37 kylin-2.2.0
drwxr-xr-x. 12 bdp bigdata 4096 Nov 17 17:38 zookeeper-3.4.10

2.1 配置环境变量

[bdp@BI01 opt]$ vim ~/.bash_profile

该文件的最终配置如下:

#JDK
export JAVA_HOME="/usr/java/jdk1.8.0_144"

#Hadoop env
export HADOOP_HOME="/home/bdp/opt/hadoop-2.7.4"
export HIVE_HOME="/home/bdp/opt/hive-1.2.2"
export HBASE_HOME="/home/bdp/opt/hbase-1.2.6"
export KYLIN_HOME="/home/bdp/opt/kylin-2.2.0"
export PATH="$HADOOP_HOME/bin:$HIVE_HOME/bin:$HBASE_HOME/bin:$PATH"
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

执行下面命令,让改动马上生效

source ~/.bash_profile

2.2 在主结点上(BI01),配置/home/bdp/opt/hadoop-2.7.4/etc/hadoop/slaves文件,增加slave主机名。
注意要把localhost删掉

BI02          
BI03          

2.3 配置 etc/hadoop/core-site.xml
这里就粘贴的是最终优化后的结果,有些参数可能还不是太合理,但至少对于上千万条的数据最后是跑过了。资源分配的参数,大家需要针对自己服务器的CPU核数和内存容量进行修改,不能直接copy。对于初学者,很多配置项还不理解它的作用,这里主要讲安装就不进行详解了,可以自行搜索一下,有很多资料介绍的。

<configuration>
        <!-- 指定hdfs的nameservice为ns1 -->
        <property>
              <name>fs.defaultFS</name>
              <value>hdfs://BI01:9000</value>
        </property>
        <!-- Size of read/write buffer used in SequenceFiles. -->
        <property>
              <name>io.file.buffer.size</name>
              <value>131072</value>
        </property>
        <!-- 指定hadoop临时目录,自行创建 -->
        <property>
              <name>hadoop.tmp.dir</name>
              <value>/home/bdp/data/hadoop/tmp</value>
        </property>
        <property>
                <name>hadoop.proxyuser.bdp.hosts</name>
                <value>*</value>
        </property>
        <property>
                <name>hadoop.proxyuser.bdp.groups</name>
                <value>*</value>
        </property>
</configuration>

2.4 配置 hdfs-site.xml

<configuration>
    <property>
          <name>dfs.namenode.secondary.http-address</name>
          <value>BI01:50090</value>
    </property>
    <property>
          <name>dfs.replication</name>
          <value>2</value>
    </property>
    <property>
          <name>dfs.namenode.name.dir</name>
          <value>file:/home/bdp/data/hadoop/hdfs/name</value>
    </property>
    <property>
          <name>dfs.datanode.data.dir</name>
          <value>file:/home/bdp/data/hadoop/hdfs/data</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>

2.5 配置yarn-site.xml

<configuration>
    <property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
    </property>
    <property>
          <name>yarn.resourcemanager.address</name>
          <value>BI01:8032</value>
    </property>
    <property>
          <name>yarn.resourcemanager.scheduler.address</name>
          <value>BI01:8030</value>
    </property>
    <property>
          <name>yarn.resourcemanager.resource-tracker.address</name>
          <value>BI01:8031</value>
    </property>
    <property>
          <name>yarn.resourcemanager.admin.address</name>
          <value>BI01:8033</value>
    </property>
    <property>
          <name>yarn.resourcemanager.webapp.address</name>
          <value>BI01:8088</value>
    </property>

    <property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>50000</value>
    </property>
    <property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>1024</value>
    </property>
    <property>
        <name>yarn.nodemanager.vmem-pmem-ratio</name>
        <value>4</value>
    </property>
    <!-- 64GB SinanWu-->
    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>65536</value>
    </property>
    <property>
        <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>16</value>
    </property>
    <!-- 开启日志聚合 -->
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <!-- 日志聚合目录 -->
    <property>
        <name>yarn.nodemanager.remote-app-log-dir</name>
        <value>/tmp/logs</value>
    </property>
    <!-- 3 days -->
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>259200</value>
    </property>
    <property>
        <name>yarn.log-aggregation.retain-check-interval-seconds</name>
        <value>3600</value>
    </property>
</configuration>

2.6 配置mapred-site.xml

<configuration>
  <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>BI01:10020</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>BI01:19888</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.intermediate-done-dir</name>
    <value>/mr-history/tmp</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.done-dir</name>
    <value>/mr-history/done</value>
  </property>
  <property>
    <name>mapreduce.map.memory.mb</name>
    <value>16000</value>
  </property>
  <property>
    <name>mapreduce.reduce.memory.mb</name>
    <value>16000</value>
  </property>
  <property>
      <name>mapreduce.map.java.opts</name>
      <value>-Xmx40000m</value>
  </property>
  <property>
      <name>mapreduce.reduce.java.opts</name>
      <value>-Xmx40000m</value>
  </property>
</configuration>

2.7 除了site配置文件,还有很多env的脚本需要优化
这里在很多安装教程里没有提及,因为对于安装时期来说是不需要修改的。但一旦跑起数据来,很多进程的启动脚本里分配的java虚拟机的堆栈都不够用。下面提前介绍一下,同样,直接上sh文件。

hadoop-env.sh 片段

# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.8.0_144

# The maximum amount of heap to use, in MB. Default is 1000.
export HADOOP_HEAPSIZE=40000

# The following applies to multiple commands (fs, dfs, fsck, distcp etc)
export HADOOP_CLIENT_OPTS="-Xms1G -Xmx40G $HADOOP_CLIENT_OPTS"

40G是不是有些粗暴?后续待进一步优化

mapred-env.sh 片段

export HADOOP_JOB_HISTORYSERVER_HEAPSIZE=1000

yarn-env.sh 片段

JAVA=$JAVA_HOME/bin/java
JAVA_HEAP_MAX=-Xmx1000m

2.8 Hadoop安装问题集锦
2.8.1 hadoop节点nodemanager启动失败
查看logs/yarn-bdp-nodemanager-BI02.log可以看到错误信息。其实就是yarn-site.xml配置有点问题。nodemanager要求的内存最低1024MB。
解决方案: a. yarn-env.sh中的JAVA_HEAP_MAX=-Xmx1000m
b. 更改yarn-site.xml的配置文件(如下)

    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>65536</value>
    </property>
    <property>
        <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>16</value>
    </property>

a和b两个步骤都要执行,且b里面两项都要配置

2.9 配置和启动History Server
Hadoop日志聚合和jobhistoryserver配置,详细参考:
http://blog.csdn.net/qq_23146763/article/details/71896401
http://blog.csdn.net/shenfuli/article/details/52470688

注意:同时要修改hdfs上目录的权限

3.Hive安装

详细可参考:
http://www.cnblogs.com/kinginme/p/7233315.html

3.1 安装Mysql
详细可参考:
linux 安装mysql数据库——yum安装法,http://www.cnblogs.com/nzplearnSite/p/5002775.html

命令安装mysql

# yum install mysql mysql-server mysql-devel -y

最后提示 Complete! 表示安装成功

查看是否生成了mysqld服务, 并设置开机启动

# chkconfig --list |grep mysql 

我们需要设置mysqld随机启动,执行下面命令进行设置

# chkconfig mysqld on 

启动mysqld服务
执行如下命令进行启动,两种方法都可以:

# /etc/init.d/mysqld start     
# service mysqld start 

设置MySQL的root密码

mysqladmin -u root password "newpass"

mysql> create user 'hive' identified by 'hadoop123';
Query OK, 0 rows affected (0.00 sec)

mysql> create database hivemeta;
Query OK, 1 row affected (0.00 sec)

mysql> grant all privileges on hivemeta.* to 'hive'@'%' identified by 'hadoop123';
Query OK, 0 rows affected (0.00 sec)

mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)

注意:有时候感觉grant不起作用,是因为有的mysql版本的’%’不包括localhost,要单独对@’localhost’进行赋值
详细可参考:http://blog.sina.com.cn/s/blog_49cc672f0100w4dt.html

mysql> grant all privileges on hivemeta.* to 'hive'@'localhost' identified by 'hadoop123';
Query OK, 0 rows affected (0.00 sec)

mysql> grant all on *.* to root@'localhost' identified by 'hadoop123';
Query OK, 0 rows affected (0.00 sec)

mysql> select Host,User,Password from user;
+-----------+------+-------------------------------------------+
| Host      | User | Password                                  |
+-----------+------+-------------------------------------------+
| localhost | root | *F14F709577A216DE31466C3EB73SINANWUF9500 |
| bi01      | root |                                           |
| 127.0.0.1 | root |                                           |
| localhost |      |                                           |
| bi01      |      |                                           |
| %         | root | *F14F709577A216DE31466C3EB73B85B3A95F9500 |
| %         | hive | *F14F709577A216DE31466C3EB73B85B3A95F9500 |
| localhost | hive | *F14F709577A216DE31466C3EB73B85B3A95F9500 |
+-----------+------+-------------------------------------------+
8 rows in set (0.00 sec)

mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)

3.2 修改Hive配置文件
在目录/home/bdp/opt/hive-1.2.2/conf下拷贝一个模板出来,命名为:hive-site.xml

cp hive-default.xml.template hive-site.xml 

hive-site.xml配置文件全部清空只保留以下内容,其中注意要修改jdbc的url参数

<configuration>
  <!-- 指定HDFS中的hive仓库地址 -->
  <property>
      <name>hive.metastore.warehouse.dir</name>
      <value>/hive/warehouse</value>
  </property>
  <!-- 该属性为空表示嵌入模式或本地模式,否则为远程模式 -->
  <property>
      <name>hive.metastore.uris</name>
      <value></value>
  </property>
  <!-- 指定mysql的连接 -->
  <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://localhost:3306/hivemeta?createDatabaseIfNotExist=true&amp;useSSL=false&amp;characterEncoding=UTF-8</value>
  </property>
  <!-- 指定驱动类 -->
  <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
  </property>
  <!-- 指定用户名 -->
  <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>hive</value>
  </property>
  <!-- 指定密码 -->
  <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>hadoop123</value>
  </property>
  <property>
      <name>hive.metastore.schema.verification</name>
      <value>false</value>
  </property>
  <!-- The location of the plugin jars-->
  <property>
      <name>hive.aux.jars.path</name>
      <value>/hive/lib/hive-hbase-handler-1.2.2.jar,/hive/lib/hbase-annotations-1.2.6.jar,/hive/lib/hbase-client-1.2.6.jar,/hive/lib/hbase-common-1.2.6.jar,/hive/lib/hbase-hadoop2-compat-1.2.6.jar,/hive/lib/hbase-it-1.2.6.jar,/hive/lib/hbase-prefix-tree-1.2.6.jar,/hive/lib/hbase-procedure-1.2.6.jar,/hive/lib/hbase-protocol-1.2.6.jar,/hive/lib/hbase-resource-bundle-1.2.6.jar,/hive/lib/hbase-rest-1.2.6.jar,/hive/lib/hbase-server-1.2.6.jar,/hive/lib/hbase-shell-1.2.6.jar,/hive/lib/hbase-thrift-1.2.6.jar,/hive/lib/zookeeper-3.4.10.jar,/hive/lib/guava-14.0.1.jar</value>
  </property>
  <property>
      <name>hive.zookeeper.quorum</name>
      <value>BI01,BI02,BI03</value>
  </property>
<property>
      <name>hive.auto.convert.join</name>
      <value>false</value>
  </property>
  <property>
      <name>hive.mapjoin.smalltable.filesize</name>
      <value>25000000</value>
  </property>
  <property>
      <name>hive.auto.convert.join.noconditionaltask</name>
      <value>false</value>
  </property>
  <property>
      <name>hive.auto.convert.join.noconditionaltask.size</name>
      <value>500000000</value>
  </property>
</configuration>

3.3 MySQL的jdbc驱动<mysql-connector-java-5.1.28.jar>,放到hive安装包的lib目录下
3.4 运行hive之前首先要确保meta store服务已经启动

nohup hive --service metastore > metastore.log 2>&1 &

3.5 启动Hive后,登录Mysql查看新建的表

mysql> use hivemeta;
mysql> show tables;
+---------------------------+
| Tables_in_hivemeta        |
+---------------------------+
| BUCKETING_COLS            |
| CDS                       |
| COLUMNS_V2                |
| DATABASE_PARAMS           |
| DBS                       |
| GLOBAL_PRIVS              |
| PARTITIONS                |
| PARTITION_KEYS            |
| PARTITION_KEY_VALS        |
| PARTITION_PARAMS          |
| PART_COL_STATS            |
| ROLES                     |
| SDS                       |
| SD_PARAMS                 |
| SEQUENCE_TABLE            |
| SERDES                    |
| SERDE_PARAMS              |
| SKEWED_COL_NAMES          |
| SKEWED_COL_VALUE_LOC_MAP  |
| SKEWED_STRING_LIST        |
| SKEWED_STRING_LIST_VALUES |
| SKEWED_VALUES             |
| SORT_COLS                 |
| TABLE_PARAMS              |
| TAB_COL_STATS             |
| TBLS                      |
| VERSION                   |
+---------------------------+
27 rows in set (0.00 sec)

3.6 测试
详细可以参考:http://blog.csdn.net/blueheart20/article/details/38460541

hive> create table test1(name string, age int);
OK
Time taken: 1.25 seconds
hive> show tables;
OK
test1
Time taken: 0.101 seconds, Fetched: 1 row(s)
hive> desc test1;
OK
name                    string
age                     int
Time taken: 0.1 seconds, Fetched: 2 row(s)

进入MySQL查看test1表的信息:

mysql> select * from TBLS;
+--------+-------------+-------+------------------+-------+-----------+-------+----------+---------------+--------------------+--------------------+
| TBL_ID | CREATE_TIME | DB_ID | LAST_ACCESS_TIME | OWNER | RETENTION | SD_ID | TBL_NAME | TBL_TYPE      | VIEW_EXPANDED_TEXT | VIEW_ORIGINAL_TEXT |
+--------+-------------+-------+------------------+-------+-----------+-------+----------+---------------+--------------------+--------------------+
|      1 |  1509345519 |     1 |                0 | bdp   |         0 |     1 | test1    | MANAGED_TABLE | NULL               | NULL               |
+--------+-------------+-------+------------------+-------+-----------+-------+----------+---------------+--------------------+--------------------+
1 row in set (0.00 sec)

3.7 安装Hive过程中碰到的问题
错误:FAILED: SemanticException org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
原因:因为没有正常启动Hive 的 Metastore Server服务进程。
解决方法:启动Hive 的 Metastore Server服务进程,执行如下命令:

# hive --service metastore &

详细可以参考:http://blog.csdn.net/freedomboy319/article/details/44828337

错误:MetaException(message:Version information not found in metastore
详细可以参考:http://blog.csdn.net/youngqj/article/details/19987727

详细可以参考:彻底弄清Hive安装过程中的几个疑问点
http://www.aboutyun.com/thread-10937-1-1.html

4.ZooKeeper安装

详细可以参考下面两个帖子:
http://blog.csdn.net/aquester/article/details/24301195
http://zookeeper.apache.org/doc/trunk/zookeeperAdmin.html#sc_zkMulitServerSetup
4.1 三台服务器上分别创建data目录和myid文件

[bdp@BI02 ~]$ mkdir -p data/hadoop/zookeeper/data
Fullpath:/home/bdp/data/hadoop/zookeeper/data

[bdp@BI01 data]$ echo '1' > myid
[bdp@BI02 ~]$ echo '2' > data/hadoop/zookeeper/data/myid
[bdp@BI03 ~]$ echo '3' > data/hadoop/zookeeper/data/myid

4.2 修改conf/zoo.cfg

tickTime=2000
dataDir=/opt/zookeeper/data
clientPort=2181
initLimit=5
syncLimit=2
server.1=master1:2888:3888 
server.2=slave1:2888:3888
server.3=slave2:2888:3888
  • server.N中的N值必须和myid保持相同。

  • 端口2181用于监听客户端的连接,端口2888用于Leader监听Follower的连接,而3888则用于Leader选举。

  • dataDir用来指定快照文件存放目录,dataLogDir用来指定事务日志文件存放目录。如果只指定了dataDir,而没指定dataLogDir,则事务日志文件也存放于dataDir指定的目录。

  • 默认,autopurge的两个参数是被注释的。“autopurge.purgeInterval”指定自动清理快照文件和事务日志文件的时间,单位为小时,默认为0表示不自动清理,这个时候可以使用脚本zkCleanup.sh手动清理。不清理的结果是占用的磁盘空间越来越大。“autopurge.snapRetainCount”用于指定保留快照文件和事务日志文件的个数,默认为3。

最后我的配置如下:

tickTime=2000
initLimit=5
syncLimit=2
dataDir=/home/bdp/data/hadoop/zookeeper/data
dataLogDir=/home/bdp/opt/zookeeper-3.4.10/logs
clientPort=2181

autopurge.snapRetainCount=10
autopurge.purgeInterval=1

server.1=BI01:2888:3888
server.2=BI02:2888:3888
server.3=BI03:2888:3888

4.3 修改/bin/zkEnv.sh
设置环境变量ZOO_LOG_DIR为zookeeper的日志存放目录,如:
export ZOO_LOG_DIR=/data/hadoop/zookeeper/log
可将这一行放在ZOOKEEPER_PREFIX之后。
再修改下ZOO_LOG4J_PROP,以让日志不是输出到zookeeper.out,而是写入到日志文件,将:ZOO_LOG4J_PROP=”INFO,CONSOLE”,改成:
ZOO_LOG4J_PROP=”INFO,ROLLINGFILE”

4.4 修改conf/log4j.properties
log4j.appender.ROLLINGFILE.MaxFileSize=100MB
log4j.appender.ROLLINGFILE.MaxBackupIndex=10
设置每个日志文件大小为100M,滚动10个。

5.HBase安装

官方参考:
http://hbase.apache.org/book.html#quickstart_fully_distributed
详细可以参考:
http://blog.csdn.net/gamer_gyt/article/details/52032579

提示:先看单机伪分布的配置,才能继续真正分布式的配置
5.1 编辑/home/bdp/opt/hbase-1.2.6/conf/hbase-env.sh

# The java implementation to use.  Java 1.7+ required.
export JAVA_HOME=/usr/java/jdk1.8.0_144

# Extra Java CLASSPATH elements.  Optional.
# export HBASE_CLASSPATH=

# The maximum amount of heap to use. Default is left to JVM default.
export HBASE_HEAPSIZE=7G

# Uncomment below if you intend to use off heap cache. For example, to allocate 8G of
# offheap, set the value to "8G".
# export HBASE_OFFHEAPSIZE=1G

# Extra Java runtime options.
# Below are what we set by default by SinanWu.  May only work with SUN JVM.
# For more on why as well as other possible settings,
# see http://wiki.apache.org/hadoop/PerformanceTuning
export HBASE_OPTS="-Xmx24G -Xms16G -Xmn9G -XX:PermSize=1G -XX:MaxPermSize=2G -XX:SurvivorRatio=8 -XX:+UseConcMarkSweepGC -XX:CMSInitiatingOccupancyFraction=70 -XX:+UseCMSInitiatingOccupancyOnly -XX:+CMSParallelRemarkEnabled -XX:+UseParNewGC -XX:+UseCMSCompactAtFullCollection -XX:CMSFullGCsBeforeCompaction=0 -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -Xloggc:$HBASE_HOME/logs/gc-$(hostname)-hbase.log"

# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false

5.2 编辑编辑/home/bdp/opt/hbase-1.2.6/conf/hbase-site.xml

<configuration>
  <property>
    <name>hbase.rootdir</name>
    <value>hdfs://BI01:9000/hbase</value>
  </property>
  <property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/home/bdp/data/hadoop/zookeeper/data</value>
  </property>
  <property>
     <name>hbase.cluster.distributed</name>
     <value>true</value>
  </property>
  <property>
      <name>hbase.master</name>
      <value>BI01:60000</value>
  </property>
  <property>
    <name>hbase.zookeeper.quorum</name>
    <value>BI01,BI02,BI03</value>
  </property>
  <property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2181</value>
  </property>
<property>
        <name>zookeeper.session.timeout</name>
        <value>300000</value>
  </property>
  <property>
        <name>hbase.zookeeper.property.tickTime</name>
        <value>60000</value>
  </property>
  <property>
        <name>hbase.hregion.memstroe.mslab.enable</name>
        <value>true</value>
  </property>
  <property>
        <name>hbase.zookeeper.property.maxClientCnxns</name>
        <value>10000</value>
  </property>
  <property>
        <name>hbase.client.scanner.timeout.period</name>
        <value>660000</value>
  </property>
  <property>
        <name>hbase.rpc.timeout</name>
        <value>660000</value>
  </property>
  <property>
        <name>hbase.client.retries.number</name>
        <value>2</value>
  </property>
</configuration>

5.3 编辑conf/regionservers
清空文件里的已有内容,修改为:

BI02         
BI03          

5.4 配置BI02为backup master
Configure HBase to use node-b as a backup master. Create a new file in conf/ of BI02 called backup-masters, and add a new line to it with the hostname for node-b.
在BI02服务器上,/home/bdp/opt/hbase-1.2.6/conf/目录下创建backup-masters文件,内容如下所示:

[bdp@BI02 conf]$ cat backup-masters
BI02

[bdp@BI02 conf]$

5.5 先确保ZooKeeper已经启动,再启动HBase

6.Kylin安装

6.1 安装按照官方文档进行
6.2.配置和启动Hadoop history server
6.3 修改必要的hdfs上面的文件夹的权限
6.4 可考虑修改配置文件:kylin_hive_conf.xml,禁用hive的本地mapred任务。这是因为hive的本地任务,文件大小和个数满足一个条件就会启用,因此一两个大表会导致本地模式内存溢出

Kylin的安装比较简单,但是在Cube的创建上会碰到很多问题,更多更新可以移步到 http://shuquaner.com/ 保持关注:)

    原文作者:SinanWu
    原文地址: https://www.jianshu.com/p/7c4e025aadd4
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞