发起人:wintfru 初入职场

回复 ( 2 )

  1. winseliu
    理由
    举报 取消

    用maven还是sbt其实个人习惯而已。

    其实一开始Spark是使用sbt来弄的,但是后来都跟着hadoop入坑使用maven了。现在Spark的版本是maven和sbt都支持的。你可以看看 想研读下spark的源码,怎么搭阅读和调试的环境呢? – Spark 这个问答。

    如果你用hadoop同时又用spark的话,推荐使用maven。毕竟sbt使用ivy来进行依赖管理的,和maven是不同的风格。两个都用的话,同一个依赖在你的系统会存两份一模一样的jar。

  2. 朱诗雄
    理由
    举报 取消

    Spark同时支持maven和sbt两种啊。官方文档两种都有说明的:

我来回答

Captcha 点击图片更换验证码