安装hadoop(例如CDH),像hdfs、zookeeper、spark等有没有必要独立到不同机器?

理由
举报 取消

我用的cdh的发行版,服务器每台双U 96G 24TB。有没有必要每个服务都独立的分别部署在不同的机器上,还是可以叠加好一点?请给个分析?谢谢!

2017年12月16日 1 条回复 1193 次浏览

发起人:Robot 管理大师

回复 ( 1 )

  1. 赵济元
    理由
    举报 取消

    【如果是简单的架构设计】毫无疑问,分散在尽可能多的master节点上,虽然好多服务并不消耗太多的资源和网络IO,但仅从容灾的角度来看,资源充足为什么不分开呢?甚至个人建议应该有目的性的做好机架感知的规划。

    ps:问题中三类属于不同的类型,概念需要区分开。hdfs倾向于存储硬件资源,spark倾向于内存,如果机型全一致就每台都来(namenode相关的节点特殊考虑,俩都不上);此外zookeeper找三个分散的节点分别挂一下即可,就是个监工而已。

    (午夜占坑,有空回来补充)

我来回答

Captcha 点击图片更换验证码