spark streaming 适合处理规模不大的流式数据吗? 举报 理由 举报 取消 我有个疑惑,spark网上说法是用于大数据量处理(可以很轻易的做水平拓展),我感觉用 spark 的框架开发其实也有一定的范式上的简易性。 那么如果说业务开始数据量不是很大的流式任务(或者其他业务)用 spark 合适吗?(有没有杀鸡用牛刀这种问题,造成资源浪费?) 2017年10月3日 2 条回复 1242 次浏览 Hadoop,Spark,分析,数据,计算
回复 ( 2 )
泻药,非要用的话肯定可以,适不适合就真的得看你的数据规模了,个人建议的话如果数据规模不大,去用Storm吧,Storm时延小,就是吞吐量不大(最近升级版的Heron可能有改进,未深入研究过)。资源浪费的问题可以用Spark的DRA来缓解,建议放在YARN上跑。
spark、storm在数据量不大的情况下,性能都差不多,但是spark强调的时高吞吐量和实时处理的能力。