我刚开始使用Apache spark.当我尝试RDD文件时,我收到错误:
值Textfile不是org.apache.spark.SparkContext的成员.
这是我输入的内容:
val data1 = sc.textfile(“README.md”)
我有带有Spark的AmazonEMR.
最佳答案 好的只是发现它是敏感的.需要是textFile(带F Cap).
我希望这会对某人有所帮助.
我刚开始使用Apache spark.当我尝试RDD文件时,我收到错误:
值Textfile不是org.apache.spark.SparkContext的成员.
这是我输入的内容:
val data1 = sc.textfile(“README.md”)
我有带有Spark的AmazonEMR.
最佳答案 好的只是发现它是敏感的.需要是textFile(带F Cap).
我希望这会对某人有所帮助.