spark自己实现并行化logistic回归?

理由
举报 取消

怎么使用spark实现并行化的logistic回归,并行化体现在哪里?如果用mapreduce的话需要自己写map和reduce,但是spark怎么弄呢?spark的map和reduce和一般的map、reduce有什么关系吗?怎么理解?

2017年11月6日 1 条回复 989 次浏览

回复 ( 1 )

  1. liushiqi9
    理由
    举报 取消

    完全没懂

    MLlib不行么

我来回答

Captcha 点击图片更换验证码