我可以在 Eclipse 中运行 Spark 单元测试吗

2024-02-18

最近我们从使用烫洗改为使用火花。我使用eclipse和eclipse的scala IDE来编写代码和测试。测试在 twitter 的 JobTest 类上运行良好。任何使用 JobTest 的类都可以自动作为 Eclipse 中的 scala 单元测试运行。我现在已经失去了这个能力。 Spark 测试用例可以使用 sbt 完美运行,但 Eclipse 中这些测试的运行配置列出“不适用”。

有没有办法在 Eclipse 中运行 Spark 单元测试?


我认为使用 Java 的相同方法也适用于 Scala。基本上只需使用 master 作为“本地”创建一个 SparkContext,然后正常构建和运行单元测试。测试完成后请务必停止 SparkContext。

我可以在 Spark 1.0.0 上使用此功能,但在较新的版本上则不行。

public class Test123 {
  static JavaSparkContext sparkCtx;

  @BeforeClass
  public static void sparkSetup() {
    // Setup Spark
    SparkConf conf = new SparkConf();
    sparkCtx = new JavaSparkContext("local", "test", conf);     
  }

  @AfterClass
  public static void sparkTeardown() {
    sparkCtx.stop();
  }

  @Test
  public void integrationTest() {
    JavaRDD<String> logRawInput = sparkCtx.parallelize(Arrays.asList(new String[] {
            "data1",
            "data2",
            "garbage",
            "data3",
        }));
  }
}
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

我可以在 Eclipse 中运行 Spark 单元测试吗 的相关文章

随机推荐