弹性分布式数据集(RDD)简介

RDD(弹性分布式数据集)是Spark的核心抽象。它是一组元素,在集群的节点之间进行分区,以便我们可以对其执行各种并行操作。

有两种方法可以用来创建RDD:

  • 并行化驱动程序中的现有数据
  • 引用外部存储系统中的数据集,例如:共享文件系统,HDFS,HBase或提供Hadoop InputFormat的数据源。

并行化集合

要创建并行化集合,请在驱动程序中的现有集合上调用SparkContextparallelize方法。复制集合的每个元素以形成可以并行操作的分布式数据集。

val info = Array(1, 2, 3, 4)  
val distinfo = sc.parallelize(info)

现在,可以操作分布式数据集(distinguishedfo),例如:distinfo.reduce((a, b) => a + b)

外部数据集

在Spark中,可以从Hadoop支持的任何类型的存储源(如HDFS,Cassandra,HBase甚至本地文件系统)创建分布式数据集。Spark提供对文本文件,SequenceFiles和其他类型的Hadoop InputFormat的支持。

SparkContexttextFile方法可用于创建RDD的文本文件。此方法获取文件的URI(计算机上的本地路径或hdfs://)并读取文件的数据。

《弹性分布式数据集(RDD)简介》

现在,可以通过数据集操作来操作数据,例如使用mapreduceoperations来添加所有行的大小,如下所示:data.map(s => s.length).reduce((a, b) => a + b)

        原文作者:Spark教程
        原文地址: https://www.yiibai.com/spark/apache-spark-rdd.html
        本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
    点赞