设置Spark中的节点数限制

huangapple 未分类评论45阅读模式
英文:

Set limit of number of nodes in Spark

问题

我在我的Spark集群中有10个工作节点(机器)。

我希望只在这10个工作节点中的4个上运行我的一个Spark作业。是否有办法让我的程序只在这4个工作节点上运行?

英文:

I've 10 worker nodes (machines) in my spark cluster.

I want to run my one spark job only on 4 worker nodes out of 10. Is there any way I could set it to run my program only on 4 worker nodes ?

huangapple
  • 本文由 发表于 2020年4月9日 15:16:03
  • 转载请务必保留本文链接:https://java.coder-hub.com/61115822.html
匿名

发表评论

匿名网友

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定