Spark目前的瓶颈在哪里,还有希望解决么? 举报 理由 举报 取消 Spark当前很火哈,有木有行家来回答一下~~抛砖引玉,比如jvm方面的限制内存浪费任务调度方面拓展性等等。 2017年6月1日 1 条回复 812 次浏览 Spark,分布式,数据,系统,计算机
回复 ( 1 )
最大的瓶颈就是内存,要是内存无限就好了。