从 Databricks 中的 dbutils.fs.ls 输出创建数据帧

2024-02-13

所以,我是一个初学者,正在 Databricks 上学习 Spark 编程 (pyspark) -

我想做什么?

列出目录中的所有文件并将其保存到数据框中,以便我能够在此文件列表上应用过滤、排序等。为什么 ?因为我试图找到目录中最大的文件。

为什么下面不起作用? 我缺少什么?

from pyspark.sql.types import StringType

sklist = dbutils.fs.ls(sourceFile)

df = spark.createDataFrame(sklist,StringType())

好吧,实际上,我明白了:)。只是想把问题留在这里,以防有人从中受益。

所以基本上,问题出在模式上。并非列表中的所有元素都是字符串类型。因此,我显式创建了一个架构并在 createDataFrame 函数中使用它。

工作代码 -

from pyspark.sql.types import StructType, StructField, IntegerType, StringType

ddlSchema = StructType([
StructField('path',StringType()),
StructField('name',StringType()),
StructField('size',IntegerType())
])

sklist = dbutils.fs.ls(sourceFile)
df = spark.createDataFrame(sklist,ddlSchema)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

从 Databricks 中的 dbutils.fs.ls 输出创建数据帧 的相关文章

随机推荐