spark任务提交到yarn上,状态一直Accepted且不停止不报错

运行Spark集群时状态一直为Accepted且不停止不报错,如下面这样的情况:
spark任务提交到yarn上,状态一直Accepted且不停止不报错
一般是由于有多个用户同时向集群提交任务或一个用户向集群同时提交了多个任务导致Yarn资源的分配错误。解决这个问题,只需要更改Hadoop的配置文件:/etc/hadoop/conf/capacity-scheduler.xml,把选项:yarn.scheduler.capacity.maximum-am-resource-percent从0.1改成0.5。顾名思义,这个选项是增加Yarn可调度的资源量,当然也可以视具体情况增加更多。也可见,默认情况下,Yarn没有将很多资源分配给任务的能力。