我有一个 RDD 类型:
dataset :org.apache.spark.rdd.RDD[(String, Double)] = MapPartitionRDD[26]
这相当于(Pedro, 0.0833), (Hello, 0.001828) ...
我想总结所有的价值,0.0833+0.001828..
但我找不到合适的
解决方案。
考虑到您的输入数据,您可以执行以下操作:
// example
val datasets = sc.parallelize(List(("Pedro", 0.0833), ("Hello", 0.001828)))
datasets.map(_._2).sum()
// res3: Double = 0.085128
// or
datasets.map(_._2).reduce(_ + _)
// res4: Double = 0.085128
// or even
datasets.values.sum()
// res5: Double = 0.085128
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)