Spark SQL 编程初级实践

2023-11-02

1Spark SQL 基本操作

将下列 JSON 格式数据复制到 Linux 系统中,并保存命名为 employee.json。

{ "id":1 , "name":" Ella" , "age":36 }

{ "id":2, "name":"Bob","age":29 }

{ "id":3 , "name":"Jack","age":29 }

{ "id":4 , "name":"Jim","age":28 }

{ "id":5 , "name":"Damon" }

{ "id":5 , "name":"Damon" }

为 employee.json 创建 DataFrame,并写出 Scala 语句完成下列操作:

将下列 json 数据复制到你的 ubuntu 系统/usr/local/spark 下,并保存命名为 employee.json。

scala> import org.apache.spark.sql.SparkSession

scala> val spark=SparkSession.builder().getOrCreate()

scala> import spark.implicits._

scala> val df = spark.read.json("file:///usr/local/spark/employee.json")

(1)     查询所有数据;

 

(2)     查询所有数据,并去除重复的数据;

 

(3)     查询所有数据,打印时去除 id 字段;

 

(4)     筛选出 age>30 的记录;

 

(5)     将数据按 age 分组;

 

(6)     将数据按 name 升序排列;

 

(7)     取出前 3 行数据; 

(8)     查询所有记录的 name 列,并为其取别名为 username;

 

(9)     查询年龄 age 的平均值;

(10)  查询年龄 age 的最小值。

2.编程实现将 RDD 转换为 Da

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Spark SQL 编程初级实践 的相关文章

随机推荐