用户名*
邮箱*
密码*
确认密码*
验证码* 点击图片更换验证码
找回密码
忘记密码了?输入你的注册邮箱,并点击重置,稍后,你将会收到一封密码重置邮件。
用maven还是sbt其实个人习惯而已。
其实一开始Spark是使用sbt来弄的,但是后来都跟着hadoop入坑使用maven了。现在Spark的版本是maven和sbt都支持的。你可以看看 想研读下spark的源码,怎么搭阅读和调试的环境呢? – Spark 这个问答。
如果你用hadoop同时又用spark的话,推荐使用maven。毕竟sbt使用ivy来进行依赖管理的,和maven是不同的风格。两个都用的话,同一个依赖在你的系统会存两份一模一样的jar。
Spark同时支持maven和sbt两种啊。官方文档两种都有说明的:
昵称*
E-Mail*
回复内容*
回复 ( 2 )
用maven还是sbt其实个人习惯而已。
其实一开始Spark是使用sbt来弄的,但是后来都跟着hadoop入坑使用maven了。现在Spark的版本是maven和sbt都支持的。你可以看看 想研读下spark的源码,怎么搭阅读和调试的环境呢? – Spark 这个问答。
如果你用hadoop同时又用spark的话,推荐使用maven。毕竟sbt使用ivy来进行依赖管理的,和maven是不同的风格。两个都用的话,同一个依赖在你的系统会存两份一模一样的jar。
Spark同时支持maven和sbt两种啊。官方文档两种都有说明的: