开发者社区> 问答> 正文

Spark-Scala build.sbt libraryDependencies UnresolvedDependency

我正在尝试从我的build.sbt文件中导入依赖项 https://github.com/dmarcous/spark-betweenness

当我将鼠标悬停在错误上时,它说:

表达式类型ModuleID必须向SBT文件中的Def.SettingsDefinition确认
Unresolved Dependency

展开
收起
社区小助手 2018-12-19 16:52:27 2452 0
2 条回答
写回答
取消 提交回答
  • 我们团队
    42c839c084dc4383ac55a526b0f3b134_a5e313c1c38844a29f2cb3b8508524ca.jpg

    2019-07-17 23:23:03
    赞同 展开评论 打赏
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    目前还不清楚你的构建配置是怎样的,但是下面的build.sbt工作(从某种意义上说它编译并没有显示你提到的错误):

    name := "test-sbt"

    organization := "whatever"

    version := "1.0.0"

    scalaVersion := "2.10.7"

    libraryDependencies += "com.centrality" %% "spark-betweenness" % "1.0.0"
    或者,如果您有多项目构建,它可能如下所示:

    lazy val root = project
    .settings(

    name := "test-sbt",
    organization := "whatever",
    version := "1.0.0",
    scalaVersion := "2.10.7",
    libraryDependencies += "com.centrality" %% "spark-betweenness" % "1.0.0"

    )
    但是,您可能会发现它仍然无法正常工作,因为它无法解决此依赖关系。实际上,这个库在Maven Central和jcenter中似乎都不可用。它也很老 - 它似乎只针对Scala 2.10和一个非常古老的Spark版本(1.5)发布,所以很可能你将无法在最近的Spark环境(2.x和Scala 2.11)中使用它。

    2019-07-17 23:23:03
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Just Enough Scala for Spark 立即下载
NO MORE \"SBT ASSEMBLY\":RETHINKING SPARK-SUBMIT USING CUESHEET 立即下载
Monitoring the Dynamic Resource Usage of Scala and Python Spark Jobs in Yarn 立即下载