我正在尝试了解reduceByKey
Spark中使用java作为编程语言。
假设我有一句话“我就是我”。
我将句子分解成单词并将其存储为列表[I, am, who, I, am]
.
现在这个函数分配1
对每个单词:
JavaPairRDD<String, Integer> ones = words.mapToPair(new PairFunction<String, String, Integer>() {
@Override
public Tuple2<String, Integer> call(String s) {
return new Tuple2<String, Integer>(s, 1);
}
});
所以输出是这样的:
(I,1)
(am,1)
(who,1)
(I,1)
(am,1)
现在,如果我有 3 个减速器正在运行,每个减速器都会获得一个键以及与该键关联的值:
reducer 1:
(I,1)
(I,1)
reducer 2:
(am,1)
(am,1)
reducer 3:
(who,1)
我想知道
A。下面的函数到底发生了什么。
b.参数是什么new Function2<Integer, Integer, Integer>
C。 JavaPairRDD 基本上是如何形成的。
JavaPairRDD<String, Integer> counts = ones.reduceByKey(new Function2<Integer, Integer, Integer>() {
@Override
public Integer call(Integer i1, Integer i2) {
return i1 + i2;
}
});