英文:
Set limit of number of nodes in Spark
问题
我在我的Spark集群中有10个工作节点(机器)。
我希望只在这10个工作节点中的4个上运行我的一个Spark作业。是否有办法让我的程序只在这4个工作节点上运行?
英文:
I've 10 worker nodes (machines) in my spark cluster.
I want to run my one spark job only on 4 worker nodes out of 10. Is there any way I could set it to run my program only on 4 worker nodes ?
专注分享java语言的经验与见解,让所有开发者获益!
评论