将数组传递给 Spark Lit 函数

2023-12-26

假设我有一个 numpy 数组a包含数字 1-10:
[1 2 3 4 5 6 7 8 9 10]

我还有一个 Spark 数据框,我想向其中添加我的 numpy 数组a。我认为一列文字就可以完成这项工作。这不起作用:

df = df.withColumn("NewColumn", F.lit(a))

不支持的文字类型类 java.util.ArrayList

但这有效:

df = df.withColumn("NewColumn", F.lit(a[0]))

怎么做?

之前的 DF 示例:

col1
a b c d e f g h i j

预期结果:

col1 NewColumn
a b c d e f g h i j 1 2 3 4 5 6 7 8 9 10

Spark 中的列表理解array

a = [1,2,3,4,5,6,7,8,9,10]
df = spark.createDataFrame([['a b c d e f g h i j '],], ['col1'])
df = df.withColumn("NewColumn", F.array([F.lit(x) for x in a]))

df.show(truncate=False)
df.printSchema()
#  +--------------------+-------------------------------+
#  |col1                |NewColumn                      |
#  +--------------------+-------------------------------+
#  |a b c d e f g h i j |[1, 2, 3, 4, 5, 6, 7, 8, 9, 10]|
#  +--------------------+-------------------------------+
#  root
#   |-- col1: string (nullable = true)
#   |-- NewColumn: array (nullable = false)
#   |    |-- element: integer (containsNull = false)

@pault 评论道(Python 2.7):

您可以使用隐藏循环map:
df.withColumn("NewColumn", F.array(map(F.lit, a)))

添加@abegehrPython 3版本:

df.withColumn("NewColumn", F.array(*map(F.lit, a)))

Spark's udf

# Defining UDF
def arrayUdf():
    return a
callArrayUdf = F.udf(arrayUdf, T.ArrayType(T.IntegerType()))

# Calling UDF
df = df.withColumn("NewColumn", callArrayUdf())

输出是一样的。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

将数组传递给 Spark Lit 函数 的相关文章

随机推荐