Tuple,Array,Map,文件操作

  • Tuple是一个元组:

1,)一组元组中支持多个元素;

2,)一组元组中可以包含不同类型的元素;

3,)返回下标从_1开始。

  • Array 数组

var items=Array(1,2,3,4)

  • Map key,value的方式

val ages=Map(“hadoop”->9,”Spark”->5)

  • 文件的操作方法

Source.fromFile(“c:\test.txt”)

 1 package com.dtgroup.study
 2 import scala.io.Source
 3 
 4 object TupleArrayMapFile {
 5   def main(arg: Array[String]): Unit = {
 6     // Tuple
 7     var tuple = (1, "hadoop", "spark")
 8     println(tuple._1)
 9     println(tuple._2)
10     println(tuple._3)
11 
12     // Array
13     var items = Array(1, 2, 3)
14     for (i <- 0 until items.length) println(items(i))
15 
16     for (item <- items) println(item)
17 
18     // Map
19     var maps = Map("spark" -> 5, "hadoop" -> 8)
20     println(maps("spark"))
21     println(maps("hadoop"))
22 
23     for ((k, v) <- maps) println("k:" + k + ",v:" + v)
24     for ((k, _) <- maps) println("k:" + k)
25 
26     // file operator
27     var file = Source.fromFile("d:\\spark.txt")
28     for (line <- file.getLines()) println(line)
29   }
30 }

备注:

1,)Map中的key,value都是一些元组;

2,)for((k,_)<-maps) 这里的_是一个占位符,不可以取出该值;

打印结果为:

1
hadoop
spark
1
2
3
1
2
3
5
8
k:spark,v:5
k:hadoop,v:8
k:spark
k:hadoop
spark starting
….
spark running…
….
….

    原文作者:spark
    原文地址: https://www.cnblogs.com/yy3b2007com/p/4970230.html
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞