【spark】spark列转行操作(json格式)

作者 : admin 本文共785个字,预计阅读时间需要2分钟 发布时间: 2024-06-10 共3人阅读

前言:一般我们列转行都是使用concat_ws函数或者concat函数,但是concat一般都是用于字符串的拼接,后续处理数据时并不方便。

需求:将两列数据按照设备id进行分组,每个设备有多个时间点位和对应值,将其一一对应,并以json形式存储。

设备id(device_name)点位值(point)

测量值(value)

key111.12
key121.32
key331.00

实现:

1、依旧需要对数据进行分组后聚合。由于有大量键值对,通过groupByKey进行分组

2、分组后得到(key, value[Iteratable])类型数据,对value进行转换后操作

import spark.implicits._

//定义数据源
val seq = Seq(
    ("key1","1","1.12"),
    ("key1","3","1.32"),
    ("key1","3","1.00")
).toDF("device","point","value")

//数据处理
seq.as[pointKey]
    .groupByKey(_.device)
    .mapGroups((key, value) => {
        val list = value.toList
        val map = new mutable.HashMap[String, String]()
        list.foreach(elem => map.put(elem.point, elem.value))

        //此时的数据格式为map格式
        //map转json
        implicit val formats: DefaultFormats.type = DefaultFormats
        val json = Serialization.write(map)
        (key, map, json)
    })



//样例类,用于装载
case class pointKey(
    device: String, point: String, value: String
)

【spark】spark列转行操作(json格式)插图

本站无任何商业行为
个人在线分享 » 【spark】spark列转行操作(json格式)
E-->