Ubuntu-Java-Scala-Spark-IEDA-configure

最近要接触数据分析,需要快速入门,就想在Ubuntu下配置IDEA和Spark编程环境。

1.下载jdk

#java /etc/profile .zshrc, 或者直接在终端输入
export JAVA_HOME=/usr/lib/jdk
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

2.下载scala并且拷贝到/usr/local/scala

开始配置在/etc/profile中输入下面的内容

vim /etc/profile

#scala
export SCALA_HOME=/usr/local/scala
export PATH=$SCALA_HOME/bin:$PATH

#scala compile
alias sa=’scala’

$source /etc/proflle使file生效。

$scala -version来查看版本

Scala code runner version 2.11.8 — Copyright 2002-2016, LAMP/EPFL

3.idea  安装scala插件

下载对于版本的scala插件,首先到idea中去搜索对于的版本,然后对于下载

下载好之后,直接解压放到idea中plugins目录下。

4.spark 使用

下载完之后,解压出来,直接使用。(./spark-shell ./pyspark)

5.IEDA安装

选择社区版,下载完之后,解压出来。进入bin目录,运行idea.sh脚步来启动IDEA.

6.插件安装(vim+scala+sbt)

在file->Settins->Plugins,搜索scala插件进行安装,完成之后,就会用scala类型的项目了。一定要把自己的网速搞上去。

7.在IEDA中配置jdk,scala,spark依赖

8.编写demo程序—scala—Spark

  1)scala项目

  2)Spark项目

6、打包导出到集群运行。

6.1 如果pom.xml文件中存在hadoop或者spark的依赖,请在打包之前注释掉。因为集群已经有包了,注释掉既能减少包的大小,又能避免某些jar版本冲突。

6.2 Intellij中点击“File – Project Struction – Artifacts – + – Jar – From modules with dependencies…”,填写modules、Main Class以及路径等,点击OK生成jar包。

File->Project Structure->在右侧选择Artifacts->JAR->From modules with dependencies 

填写该JAR包名称和调整输出内容

【注意】的是默认情况下”Output Layout”会附带Scala相关的类包,由于运行环境已经有Scala相关类包,所以在这里去除这些包只保留项目的输出内容

6.3 Intellij中点击“Build- Build artifacts… ”,选择刚生成的jar包进行build。

6.4 将打包好的jar包上传到服务器某路径下。

6.5 执行提交命令:

spark-submit WhereIsYourJar 其他参数

bin/spark-submit –master spark://hadoop1:7077 –class class3.Join –executor-memory 1g LearnSpark.jar hdfs://hadoop1:9000/class3/join/reg.tsv hdfs://hadoop1:9000/class3/join/clk.tsv

9debug

编程的时候,避免不了的就是调试IEDA debug.

10.Spark源码阅读环境

 

    原文作者:encourage
    原文地址: http://www.cnblogs.com/lkkandsyf/p/5929219.html
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞