Spark Filter函数

在Spark中,Filter函数返回一个新数据集,该数据集是通过选择函数返回true的源元素而形成的。因此,它仅检索满足给定条件的元素。

Filter函数示例

在此示例中,将过滤给定数据并检索除35之外的所有值。
要在Scala模式下打开Spark,请按照以下命令操作。

$ spark-shell

《Spark Filter函数》

使用并行化集合创建RDD。

scala> val data = sc.parallelize(List(10,20,35,40))

现在,可以使用以下命令读取生成的结果。

scala> data.collect

《Spark Filter函数》

应用过滤器函数并传递执行所需的表达式。

scala> val filterfunc = data.filter(x => x!=35)

现在,可以使用以下命令读取生成的结果。

scala> filterfunc.collect

《Spark Filter函数》

        原文作者:Spark教程
        原文地址: https://www.yiibai.com/spark/apache-spark-filter-function.html
        本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
    点赞