Spark连接JDBC数据源

在实际的项目环境中,成熟的技术体系对关系型数据库的依赖远远超过hdfs,而且对大数据运算的结果,实践中也倾向于保存到数据库中,以便进行多种方式的可视化。所以本次实践主要完成spark从mysql中读取和写入数据。一般这个操作有两种方式,一种是自己建立jdbc连接,像一般数据库操作一样的写法,一种就是利用spark自带的jdbc操作函数。

首先要把mysql jdbc connector的jar包上传到集群中每台机器的spark/jars目录,这是一个讨巧的办法,因为spark运行之前一定把这里面所有的jar都加到CALSS_PATH里面去了。

通过spark.read.jdbc读取出来的返回值是DataFrame,如下代码所示。

val rfidCardMap = spark.read.jdbc(mysqlHelper.DB_URL_R,"t_rfid_card",Array("org_id="+ ORG_ID), mysqlHelper.PROPERTIES).map(row => {
  (row.getAs[String]("card_id"), row.getAs[String]("card_label"))
}).rdd.collect() toMap

此函数需要传入参数依次为:数据库连接url,表名,过滤条件表达式列表,带有用户名密码信息的属性对象。读取了数据之后,形成一个(String,String)对象返回。这里有两个要注意的:

  1. getAs的类型必须和数据库中列的类型严格匹配
  2. 返回元组类型的对象比返回自定义类的对象写法要轻松一些。如果是返回自定义类的对象,编译会出错,一般说法是语句之前加入“import spark.implicits._”会有效,但未必见得。尚待进一步探索。

如下是一个比较复杂的解析处理代码示例。

val teamWeightMapRDD = dfMedicalWaste.map(row => {

  (rfidCardMap.get(row.getAs[String]("team_id")) toString,

  sdf.format(new Date(row.getAs[Timestamp]("rec_ts").getTime)) toInt,

  row.getAs[Double]("mw_weight"))

}).rdd.cache()

这里sdf就是java里面常用的SimpleDateFormat,它把一个时间戳字段转化成了6个长度的整型。

处理完成后,将结果回写数据库时采用的是本地jdbc连接写法,这块内容很普通了。

这次实践有个特别清晰的理解就是scala的类型推断,由于要统计某个地点一段时间之内的产量总和、平均产量、最大和最小单位时间产量,使用到了DoubleRDDFunctions,代码如下:

val weightArrayRDD = teamWeightMapRDD.filter(teamWeight => {

  teamWeight._1 == teamName && teamWeight._2 >= week._1 && teamWeight._2 < week._2

}).map(teamWeight => {

  (teamWeight._2, teamWeight._3)

}).reduceByKey((a, b) =>

  a + b

).map(item => {

  item._2

}).cache()

使用的时候如下:

line.append(weightArrayRDD sum).append("\t")

line.append(weightArrayRDD mean).append("\t")

line.append(weightArrayRDD max).append("\t")

line.append(weightArrayRDD min).append("\t")

scala会根据返回值类型进行类型推断,从而匹配可以使用的函数,同样是RDD或者DataFram,包含的类型不同,可以使用的函数也不同,这一切都是透明的。

点赞