scala – 在SBT上Spark 2.0.1的“未解决的依赖”

用我的build.sbt

version := "1.0"
scalaVersion := "2.11.8"

// https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1"

我试图让Spark进入我的sbt 0.13项目,但IntelliJ 2016.2.5给出错误“未解决的依赖”.我做错了什么?

没有代理,如果我说“2.0.0”而不是“2.0.1”,它可以使用,但那不太好……

另外:它似乎在CLI中工作,但在IntelliJ中不起作用.

最佳答案 开箱即用SBT只加载
https://repo1.maven.org/maven2/存储库,据我所知,目前没有Apache Spark.也许你建造的另一个项目从其他仓库获取它现在它使用你当地的常春藤缓存解决?

您可以通过向项目添加另一个maven reporotory来解决此问题,例如:

resolvers ++= Seq(
  Resolver sonatypeRepo "public",
  Resolver typesafeRepo "releases",
)

更新:如果你想使用MavenRepository(你没有开箱即用),你可以尝试添加:

resolvers += "MavenRepository" at "https://mvnrepository.com/"
点赞