Spark cogroup函数

在Spark中,cogroup函数对不同的数据集执行,比方说,(K,V)和(K,W)并返回(K,(Iterable,Iterable))元组的数据集。此操作也称为groupWith。

cogroup函数示例

在这个例子中,将执行groupWith操作。要在Scala模式下打开Spark,请按照以下命令操作。

$ spark-shell

《Spark cogroup函数》

使用并行化集合创建RDD。

scala> val data1 = sc.parallelize(Seq(("A",1),("B",2),("C",3)))

现在,可以使用以下命令读取生成的结果。

scala> data1.collect

《Spark cogroup函数》

使用并行化集合创建另一个RDD。

scala> val data2 = sc.parallelize(Seq(("B",4),("E",5)))

现在,可以使用以下命令读取生成的结果。

scala> data2.collect

《Spark cogroup函数》

应用cogroup()函数对值进行分组。

scala> val cogroupfunc = data1.cogroup(data2)

现在,可以使用以下命令读取生成的结果。

scala> cogroupfunc.collect

《Spark cogroup函数》

        原文作者:Spark教程
        原文地址: https://www.yiibai.com/spark/apache-spark-cogroup-function.html
        本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
    点赞