安装hadoop(例如CDH),像hdfs、zookeeper、spark等有没有必要独立到不同机器? 举报 理由 举报 取消 我用的cdh的发行版,服务器每台双U 96G 24TB。有没有必要每个服务都独立的分别部署在不同的机器上,还是可以叠加好一点?请给个分析?谢谢! 2017年12月16日 1 条回复 1178 次浏览 cloudera,Hadoop,Spark,数据
回复 ( 1 )
【如果是简单的架构设计】毫无疑问,分散在尽可能多的master节点上,虽然好多服务并不消耗太多的资源和网络IO,但仅从容灾的角度来看,资源充足为什么不分开呢?甚至个人建议应该有目的性的做好机架感知的规划。
ps:问题中三类属于不同的类型,概念需要区分开。hdfs倾向于存储硬件资源,spark倾向于内存,如果机型全一致就每台都来(namenode相关的节点特殊考虑,俩都不上);此外zookeeper找三个分散的节点分别挂一下即可,就是个监工而已。
(午夜占坑,有空回来补充)