搭建centos7的开发环境3-Spark安装配置

说起大数据开发,必然就会提到Spark,在这片博文中,我们就介绍一下Spark的安装和配置。
这是Centos7开发环境系列的第三篇,本篇的安装会基于之前的配置进行,有需要的请回复搭建centos7的开发环境1-系统安装及Python配置搭建centos7的开发环境2-单机版Hadoop2.7.3配置

安装Spark

这里说明一下各种软件的版本号:
open-JDK: 1.8.0
Hadoop: 2.7.3
scala: 2.11.8
Spark: 2.1.0

scala

tar -zxvf scala-2.11.8.tgz
sudo mv scala-2.11.8 /usr/scala

spark

tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz 
sudo mv spark-2.1.0 /usr/spark
vim /etc/profile
========================
export HADOOP_OPTS="$HADOOP_OPTS -Djava.library.path=$HADOOP_HOME/lib/native"
SCALA_HOME=/usr/scala
export PATH=$PATH:$SCALA_HOME/bin
SPARK_HOME=/usr/spark
export PATH=$SPARK_HOME/bin:$PATH
========================
source /etc/profile
###########################
export SCALA_HOME=/usr/scala
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.121-0.b13.el7_3.x86_64
export SPARK_MASTER_IP=127.0.0.1
export SPARK_LOCAL_IP=127.0.0.1
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/usr/hadoop/etc/hadoop

配置完成之后,启动命令

/usr/hadoop/sbin/start-all.sh
/usr/spark/sbin/start-all.sh
打开链接 http://127.0.0.1:8080/,现在可以看到:

在终端分别输入spark-shell和pyspark都运行正常。

wordcount测试

创建数据集

在spark官网拷贝了一个网页作为数据源创建words.txt作为输入数据,并导入hdfs.

touch words.txt
vim words.txt
cd /usr/hadoop/sbin
hadoop fs -mkdir hdfs://localhost:9000/input
hadoop fs -put  /home/kejun/words.txt hdfs://localhost:90000/input
pyspark

现在进入pyspark的界面:

textFile=sc.textFile("hdfs://localhost:9000/input/words.txt")
counts = textFile.flatMap(lambda line: line.split(" ")).map(lambda word: (word, 1)).reduceByKey(lambda a, b: a + b)
counts.saveAsTextFile("hdfs://localhost:9000/input/out")

在hdfs的filesystem可以下载到wordcount结果

spark安装成功啦~

    原文作者:何柯君
    原文地址: https://www.jianshu.com/p/a448ac05a639
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞