Spark安装

在本节中,我们将演示如何执行Spark的安装。因此,请按照以下步骤操作。

  • 下载Apache Spark tar文件。
  • 解压缩下载的tar文件。

    下载地址:https://www.apache.org/dyn/closer.lua/spark/spark-2.4.1/spark-2.4.1-bin-hadoop2.7.tgz

sudo tar -xzvf /home/codegyani/spark-2.4.1-bin-hadoop2.7.tgz
  • 打开 bashrc 文件。
    sudo nano ~/.bashrc
    

现在,在文件的最后加上以下内容(Spark路径)。

SPARK_HOME=/ home/codegyani /spark-2.4.1-bin-hadoop2.7  
export PATH=$SPARK_HOME/bin:$PATH

更新环境变量 –

source ~/.bashrc

在命令提示符类型上测试安装 –

$ spark-shell

《Spark安装》

        原文作者:Spark教程
        原文地址: https://www.yiibai.com/spark/apache_spark_installation.html
        本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
    点赞