Spark字符统计示例

在Spark字符统计示例中,将找出指定文件中每个字符的频率。在这里,使用Scala语言来执行Spark操作。

执行Spark字符计数示例的步骤

在此示例中,计算并显示每个字符的出现次数。在本地计算机中创建一个文本文件并在其中写入一些文本。

$ nano sparkdata.txt

《Spark字符统计示例》

sparkdata.txt 文件中写入的文本。

$ cat sparkdata.txt

《Spark字符统计示例》

在HDFS中创建一个目录,保存文本文件。

$ hdfs dfs -mkdir /spark

将HDD上的sparkdata.txt 文件上传到特定目录中。

$ hdfs dfs -put /home/yiibai/sparkdata.txt /spark

《Spark字符统计示例》

现在,按照以下命令在Scala模式下打开spark。

$ spark-shell

《Spark字符统计示例》

使用以下命令创建一个RDD。

scala> val data=sc.textFile("sparkdata.txt");

在这里,传递包含数据的任何文件名。现在,可以使用以下命令读取生成的结果。

scala> data.collect;

《Spark字符统计示例》

在这里,使用以下命令以单个单词的形式拆分现有数据。

scala> val splitdata = data.flatMap(line => line.split(""));

现在,可以使用以下命令读取生成的结果。

scala> splitdata.collect;

《Spark字符统计示例》

执行映射操作,如下所示:

scala> val mapdata = splitdata.map(word => (word,1));

在这里,我们为每个单词分配值1。现在,可以使用以下命令读取生成的结果。

scala> mapdata.collect;

《Spark字符统计示例》

现在,执行reduce操作 –

scala> val reducedata = mapdata.reduceByKey(_+_);

在这里,总结了生成的数据。可以使用以下命令读取生成的结果。

scala> reducedata.collect;

《Spark字符统计示例》

        原文作者:Spark教程
        原文地址: https://www.yiibai.com/spark/apache-spark-char-count-example.html
        本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
    点赞