Hadoop HA(高可用)集群的搭建

最近实验室要搭一个高可用的Hadoop高可用集群,我先在虚拟机上搭了一个

软件版本
1. OS: ubuntu server16.04
2. jdk1.7.80
3. Hadoop2.6.5
4. zookeeper3.4.6
5. mysql5.6
6. HBase1.2
7. Hive1.1.0
8. scala2.11.11
9. Spark1.6.3
10. Pig0.16.0
11. Kafka2.10-0.821
12. Storm1.1.1
13. REDIS3.0+
iphostname安装的软件
10.0.2.5master1jdk/hadoop/hbase/spark/kafka
10.0.2.6master2jdk/hadoop/hbase/spark/kafka
10.0.2.7slave1jdk/zookeeper/hadoop/mysql/hbase/spark/kafka
10.0.2.4slave2jdk/zookeeper/hadoop/mysql/hbase/spark/kafka
10.0.2.9slave3jdk/zookeeper/hadoop/hbase/spark/kafka

其中master1和master2作为hadoop集群的两个主节点
master1和master2也作为hbase的两个主节点
master1作为spark的主节点
slave1和slave2上安装mysql
slave1,slave2,slave3上安装zookeeper集群
hive、pig作为工具安装在任何机器上都可以

目录:

  1. virtualbox上系统安装与配置
  2. ssh、ntp和jdk的安装
  3. zookeeper集群的搭建
  4. Hadoop HA的安装
  5. HBase HA的安装
  6. MYSQL双机热备
  7. Hive的安装
    原文作者:Davidham3
    原文地址: https://www.jianshu.com/p/e2439ab78363
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞