16.apache-hadoop之hive安装

1.在hive官网下载hive

tar zxvf apache-hive-1.2.2-bin.tar.gz 
mv apache-hive-1.2.2-bin hive 

2.修改环境变量

vim /etc/profile

# Hive environment  
export HIVE_HOME=/app/zpy/hive  
export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH  

source /etc/profile

3.设置mysql关联hive

[root@zpy11409 conf]# mv hive-default.xml.template  hive-site.xml 
[root@zpy11409 conf]# mv hive-env.sh.template hive-env.sh

hive-env.sh 添加以下

添加
export JAVA_HOME=/app/zpy/java/jdk1.8.0_51   ##Java路径
export HADOOP_HOME=/app/zpy/hadoop   ##Hadoop安装路径
export HIVE_HOME=/app/zpy/hive    ##Hive安装路径
export HIVE_CONF_DIR=/app/zpy/hive/conf    ##Hive配置文件路径

在 Hive 中创建表之前需要创建以下 HDFS 目录并给它们赋相应的权限。
ps:su hadoop 一定要切换到hadoop用户

hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -mkdir -p /user/hive/tmp
hdfs dfs -chmod +w /user/hive/warehouse
hdfs dfs -chmod +w /user/hive/tmp

hive-site.xml 修改以下两项

hive.exec.scratchdir
该参数指定了 Hive 的数据临时文件目录,默认位置为 HDFS 上面的 /tmp/hive 路径下,我们修改为/user/hive/tmp(HDFS路径)
    <name>hive.exec.scratchdir</name>
        <value>/user/hive/tmp</value>

hive.metastore.warehouse.dir
    该参数指定了 Hive 的数据存储目录,默认位置在 HDFS 上面的 /user/hive/warehouse 路径下。
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
        <description>location of default database for the warehouse</description>
    </property>

Hive Metastore

默认情况下, Hive 的元数据保存在内嵌的 Derby 数据库里, 但一般情况下生产环境会使用 MySQL 来存放 Hive 元数据。
创建数据库和用户
假定你已经安装好 MySQL。下面创建一个 hive 数据库用来存储 Hive 元数据,且数据库访问的用户名和密码都为 hive。
mysql> CREATE DATABASE hive; 
mysql> CREATE USER 'hive'@'localhost' IDENTIFIED BY 'hive';
mysql> GRANT ALL ON hive.* TO 'hive'@'localhost' IDENTIFIED BY 'hive'; 
mysql> GRANT ALL ON hive.* TO 'hive'@'%' IDENTIFIED BY 'hive'; 
mysql> FLUSH PRIVILEGES; 

hive-site.xml修改以下

原来使用derby数据库的配置,我们将其删除即删除以下内容:
      <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:derby:;databaseName=metastore_db;create=true</value>
        <description>JDBC connect string for a JDBC metastore</description>
      </property>
并添加如下内容:
   <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://10.1.14.9:3306/hive?createDatabaseIfNotExist=true</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>hive</value>
    </property>
    <property>
     <name>javax.jdo.option.ConnectionPassword</name>
      <value>hive</value>
    </property>
    <property>
      <name>hive.metastore.schema.verification</name>
      <value>false</value>
      <description>    Enforce metastore schema version consistency. True: Verify that version information stored in metastore matches with one from Hive jars.  Also disable automatic schema migration attempt. Users are required to manully migrate schema after Hive upgrade which ensures proper metastore schema migration. (Default)  False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.
        </description>
    </property>

4.增加mysql_driver:

cp mysql-connector-java-5.1.45-bin.jar /app/zpy/hive/lib/

5.初始化:schematool -initSchema -dbType mysql

从 Hive 2.1 版本开始, 我们需要先运行 schematool 命令来执行初始化操作。
schematool -dbType mysql -initSchema
初始化成功后会看到如下信息:

[hadoop@zpy11409 bin]$ schematool -dbType mysql -initSchema 
Metastore connection URL:        jdbc:mysql://10.1.14.9:3306/hive?createDatabaseIfNotExist=true
Metastore Connection Driver :    com.mysql.jdbc.Driver
Metastore connection User:       hive
Starting metastore schema initialization to 1.2.0
Initialization script hive-schema-1.2.0.mysql.sql
Initialization script completed
schemaTool completed

如果初始化不成功,可能会出现如下报错:

报错1:ls: cannot access /app/zpy/spark/lib/spark-assembly-*.jar: No such file or d

解决:spark2以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到这个JAR包。
所以我们需要进入hive安装路径下的bin目录下,编辑hive,我的路径是:/app/zpy/hive/bin
,需要进入该路径,然后vim hive找到下面这行shell脚本
sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`  
将其修改为:sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`
报错2:org.apache.hadoop.hive.metastore.HiveMetaException: Failed to get schema version.
schematool -initSchema -dbType mysql -verbose 来查看详细信息
信息显示 :Caused by: java.sql.SQLException: Access denied for user 'hive'@'zpy11409.zpy.corp' (using password: YES)

解决:登录mysql执行:GRANT ALL PRIVILEGES ON *.* TO 'hive'@'zpy11409.zpy.corp' IDENTIFIED BY  'hive';      
flush privileges ;
报错3:[ERROR] Terminal initialization failed; falling back to unsupported
Exception in thread "main" java.lang.IncompatibleClassChangeError: Found class jline.Terminal, but interface was expected

解决:版本问题:
hive1.2.2 (hive版本)
hadoop2.6.0(hadoop版本)
cd /app/zpy/hive/lib
cp -r jline-2.12.jar  /app/zpy/hadoop/share/hadoop/yarn/lib/
cd /app/zpy/hadoop/share/hadoop/yarn/lib/
mv jline-0.9.94.jar  jline-0.9.94.jar.bak 

6.修改 io.tmpdir 路径

mkdir -p /app/zpy/hive/iotmp
chmod 777 /app/zpy/hive/iotmp
把hive-site.xml 中所有${system:Java.io.tmpdir}替换成/app/zpy/hive/iotmp
全局替换命令:%s#${system:java.io.tmpdir}.*#/app/zpy/hive/iotmp/</value>#g 

7.Hive客户端配置

将server端程序分发到所有client端:
scp -r /app/zpy/hive 10.1.14.10:/app/zpy

修改客户端hive-site.xml文件,修改内容如下:

<property>  
  <name>hive.metastore.uris</name>  
  <value>thrift://10.1.14.9:9083</value>  
</property>
其中9083为metastore服务端口

8.修改server端和client端权限

chown -R hadoop:hadoop /app/zpy/hive

9.server端启动metastore

server端需要启动metastore服务

su hadoop
hive --service metastore &
[hadoop@zpy11409 root]$ jps
18962 NameNode
37993 RunJar           # metastore

10.启动hive

server端及client端启动hive,观察库和表是否相同

su hadoop
hive
    原文作者:经纶先生
    原文地址: https://www.jianshu.com/p/d7c6bcfd1f48
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞