Spark集群搭建

准备工作:
hostname *** #配置HOSTvi /etc/hosts #配置IP和HOST映射.ssh/authorized_keys #配置SSH通道

第一次尝试:
最方便的当然是用 Ambari**(Apache Software Foundation 下的一个顶级项目)可视化安装,

《Spark集群搭建》 访问
http://host:8080** 使用默认的 admin & admin 登陆,点击 Launch Install Wizard 进入安装向导程序;

基本配置,包括节点的 hostname、key;

选择要安装的服务,如HDFS、Yarn、Zookeeper、Hive、Spark等;

对每个服务进行配置操作,选择每个服务的 Master & Slave 安装在哪些节点上;

开始安装,显示成功或失败的结果及日志。

详细:http://www.ibm.com/developerworks/cn/opensource/os-cn-bigdata-ambari/**
但是小润在安装的时候进度总卡住,然后因为超时就 failed 了,好气啊。
第二次尝试
自己手动搭建咯…
注意:学校的镜像源#wget 安装包http://mirrors.hust.edu.cn/apache/

配置环境变量vi ~/.bashrcexport JAVA_HOME=/usr/jdk64/jdk1.8.0_77export JRE_HOME=/usr/jdk64/jdk1.8.0_77/jreexport PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATHexport CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/libexport HADOOP_HOME=/usr/local/hadoop-2.6.0export PATH=$HADOOP_HOME/bin:$PATHexport SPARK_HOME=/usr/local/sparkexport PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbinexport PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/build:$PYTHONPATHexport PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.9-src.zip:$PYTHONPATH

安装 Java
安装 Scala
安装 Hadoop 及配置cd $HADOOP_HOME/etc/hadoop#具体修改见下面的链接vi core-site.xmlvi hdfs-site.xmlvi yarn-site.xmlvi hadoop-env.shvi slavescd $HADOOP_HOME#启动sbin/start-dfs.shsbin/start-yarn.sh

安装 Spark 及配置

spark的3种运行模式:Standalone Deploy Mode**Apache Mesos**Hadoop YARN**
cd $SPARK_HOME/conf#具体修改见下面的链接vi spark-env.shvi slavescd $SPARK_HOME#启动sbin/start-all.sh

《Spark集群搭建》
《Spark集群搭建》
详细:http://wuchong.me/blog/2015/04/04/spark-on-yarn-cluster-deploy/**

Master 上的进程:

root@deadbird-master:~# jps9824 Master9219 NameNode9402 SecondaryNameNode9546 ResourceManager12494 Jps

其中一个 Slave 上的进程:
root@smartgirl-slave:~# jps18212 Worker18057 NodeManager17946 DataNode18461 Jps

《Spark集群搭建》 接下来就可以使用
hdfs**,然后
spark submit** 了。

手动安装一番过后,小润更好地理解了集群配置,稍稍体会到了运行机制。

续:

接下来配置了
zeppelin** 的 interpreter,交互式地来操作(支持Spark、Scala、SQL等)

《Spark集群搭建》 有意思的进展
持续更新**…============================11.20更新=================================

《Spark集群搭建》
《Spark集群搭建》 配置好了 notebook ,直接 submit 给集群,通过 Yarn 自动分配资源。

    原文作者:xiaorun
    原文地址: https://www.jianshu.com/p/4e2d210c5254
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞