spark自己实现并行化logistic回归? 举报 理由 举报 取消 怎么使用spark实现并行化的logistic回归,并行化体现在哪里?如果用mapreduce的话需要自己写map和reduce,但是spark怎么弄呢?spark的map和reduce和一般的map、reduce有什么关系吗?怎么理解? 2017年11月6日 1 条回复 989 次浏览 Spark,学习,数据,数据挖掘,机器
回复 ( 1 )
完全没懂
MLlib不行么