Hadoop 与 Hbase基本操作与配置

hadoop搭建

目的

本文档主要讲述如何快速搭建单节点hadoop以及一些简单map reduce操作和一些HDFS基本知识

配置要求

平台要求

  • GNU/LINUX支持该平台,Hadoop可以在linux上搭建2000个节点的集群。
  • windows也支持,但是以下步骤只支持linux。想要在windows搭建hadooop请访问wiki page

软件要求

java安装

  • 下载jdk

  • 解压

  • 设置环境变量:

    • sudo gedit ~/.bashrc

    • 在末尾添加:

      export JAVA_HOME=/usr/local/java/jdk1.8.0_25
      export JRE_HOME=${JAVA_HOME}/jre
      export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
      export PATH=${JAVA_HOME}/bin:$PATH

ssh

如果需要远程连接hadoop进程则需要安装ssh

下载

到hadoop官网选择合适镜像下载.Apache download mirror

准备安装

  • 解压并编辑目录下的/etc/hadoop/hadoop-env.sh 文件去改变对应参数:

    export JAVA_HOME=/usr/java/latest

  • 敲入下列命令

    bin/hadoop

    会显示一些相关hadoop信息。

Standalone 模式

默认的一个简单模式,在非分布下的运行,只用一个java进程,对于debug非常有用.

下列命令可用于测试:

mkdir input

cp etc/hadoop/*.xml input

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar grep input output 'dfs[a-z.]+'

cat output/*

伪分布模式

可以在一台机器上运行多个java进程

配置

etc/hadoop/core-site.xml

    <configuration>
            <property>
                 <name>hadoop.tmp.dir</name>
                 <value>file:/usr/local/hadoop/tmp</value>
                 <description>Abase for other temporary directories.</description>
            </property>
            <property>
                 <name>fs.defaultFS</name>
                 <value>hdfs://localhost:9000</value>
            </property>
    </configuration>

hdfs-site.xml

    <configuration>
            <property>
                 <name>dfs.replication</name>
                 <value>1</value>
            </property>
            <property>
                 <name>dfs.namenode.name.dir</name>
                 <value>file:/usr/local/hadoop/tmp/dfs/name</value>
            </property>
            <property>
                 <name>dfs.datanode.data.dir</name>
                 <value>file:/usr/local/hadoop/tmp/dfs/data</value>
            </property>
    </configuration>

执行

文件系统格式化

bin/hdfs namenode -format

开启namenode 和datanode的守护进程

./sbin/start-dfs.sh

查看伪分布界面

http://localhost:50070, 也可通过jps查看进程

配置好文件夹

bin/hdfs dfs -mkdir /user

bin/hdfs dfs -mkdir /user/<username>

bin/hdfs dfs -put etc/hadoop/*.xml /user/<username>/input

完成测试程序运行

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar grep /user/<username>/input /user/<username>/output 'dfs[a-z.]+'

bin/hdfs dfs -get output output

cat output/* 或者 bin/hdfs dfs -cat output/*

停止

sbin/stop-dfs . sh

Hbase 操作实验

Standalone Hbase

一个standalone模式拥有所有的Hbase守护进程,master, regionservers, zookeeper.下面是Hbase的安装使用和一些简单操作。

JDK安装

安装

  • 下载,解压:Apache Download Mirrors

  • 编辑/conf/hbase-env.sh文件,修改JAVA_HOME为合适值(一般为/usr)。

  • 编辑/conf/hbase-site.xml

    <configuration>
      <property>
        <name>hbase.rootdir</name>
        <value>file:///home/testuser/hbase</value>
      </property>
      <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/home/testuser/zookeeper</value>
      </property>
    </configuration>
    
  • 执行 bin/start-hbase.sh来开启hbase, 调用jps可以看到hbase进程,访问localhost:16010来访问WEB界面。

使用

  • 连接hbase:./bin/hbase shell
  • 创建表 create 'test' 'cf'
  • 列出表信息:list 'test'
  • 将数据调入表 put 'test' , 'row1', 'cf:a', 'value1'
  • 扫描整表:scan 'test'
  • 得到一行数据 get 'test', 'row1'
  • 停止:./bin/stop-hbase.sh

伪分布hbase

意味着在一台机器上运行,但是每个守护进程通过不同的进程运行(hmaster, hregionserver, zookeeper)

安装

  • 关闭hbase(如果它正在运行的话)

  • 配置hbase: 编辑hbase-site.xml, 将其改为:

    增加一项:

    <property>
      <name>hbase.cluster.distributed</name>
      <value>true</value>
    </property>
    

    同时将 hbase.rootdir 一项改为:

    <property>
      <name>hbase.rootdir</name>
      <value>hdfs://localhost:9000/hbase</value>
    </property>
    
  • 开启hbase: ./bin/start-hbase.sh

  • 检查hbase目录: 进入到hadoop底下,./bin/hadoop fs -ls /hbase

  • shell命令测试

Hbase Master(HMaster) Server

Hmaste server掌控着Hbase 集群。 你可以启动9个备用Hmaster server(共10个)。

开启

local-master-backup.sh 对于每个你想要开启的备用Hmaster你需要指定一个端口偏移量。 因为每个Hmaster 一般使用三个端口(默认16010, 16020, 16030) 端口偏移量就是在其之上的增加。

eg:./bin/local-master-backup.sh start 2

停止

如果需要停止某些备用Hmaster但又不停用整个集群的话,则需要找到它的进程pid, 然后kill掉。

cat /tmp/hbase-xxx-x-master.pid

HRegionServer

HRegionServer 控制着hbase引导下的储存文件中的数据。一般情况下集群中一个node跑一个HRegionServer。多个HRegionServer进程便于测试伪分布模式。启用与停止和Hmaster类似:

./bin/local-regionservers.sh start 2 3 4

./bin/local-regionservers.sh stop 2 3 4

点赞