最近在配置spark on mesos,在spark和mesos分别配置完成后进行连接时出错? 举报 理由 举报 取消 系统为ubuntu14.04,64位。mesos配置的是单master节点模式,ssh无密码登录已实现。spark方面使用hdfs将spark的tgz包上传,并将相关项配置完成,单机测试通过,但再进行集群测试时报错,内容如下:Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient memory。 2017年8月2日 1 条回复 1032 次浏览 Linux,Spark,数据
回复 ( 1 )
不用hdfs,把spark的包放在slave上试试 我最近也遇到这个问题。
现在解决了,要在/etc/default/mesos-slave内添加MESOS_hadoop_home=/你的Hadoop路径
重启mesos再试一下
其实这些都在日志里面有提示