最近在配置spark on mesos,在spark和mesos分别配置完成后进行连接时出错?

理由
举报 取消

系统为ubuntu14.04,64位。mesos配置的是单master节点模式,ssh无密码登录已实现。spark方面使用hdfs将spark的tgz包上传,并将相关项配置完成,单机测试通过,但再进行集群测试时报错,内容如下:Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient memory。

2017年8月2日 1 条回复 1016 次浏览

发起人:ruralboy 初入职场

回复 ( 1 )

  1. Brad Sun
    理由
    举报 取消

    不用hdfs,把spark的包放在slave上试试 我最近也遇到这个问题。

    现在解决了,要在/etc/default/mesos-slave内添加MESOS_hadoop_home=/你的Hadoop路径

    重启mesos再试一下

    其实这些都在日志里面有提示

我来回答

Captcha 点击图片更换验证码