我正在构建一个实用程序库,可以与 Apache Spark 1.0、1.1、1.2 版本之一一起使用。
由于它们都是二进制向后兼容的,我想让用户决定使用哪个 Spark 版本(通过手动添加spark-core
将首选版本作为我的库的依赖项),并且不在库的 POM 中施加任何版本限制。否则,它会通过依赖项驱逐警告来惹恼用户。
是否可以使 sbt 在发布的 POM 中省略库依赖项,同时不更改任何编译行为?
以下是我使用 sjrd 的帮助编写的 sbt 设置。
import scala.xml.{Node => XmlNode, NodeSeq => XmlNodeSeq, _}
import scala.xml.transform.{RewriteRule, RuleTransformer}
pomPostProcess := { (node: XmlNode) =>
new RuleTransformer(new RewriteRule {
override def transform(node: XmlNode): XmlNodeSeq = node match {
case e: Elem if e.label == "dependency" && e.child.exists(child => child.label == "scope" && child.text == "provided") =>
val organization = e.child.filter(_.label == "groupId").flatMap(_.text).mkString
val artifact = e.child.filter(_.label == "artifactId").flatMap(_.text).mkString
val version = e.child.filter(_.label == "version").flatMap(_.text).mkString
Comment(s"provided dependency $organization#$artifact;$version has been omitted")
case _ => node
}
}).transform(node).head
}
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)