2016 - 2024

感恩一路有你

spark集群部署 怎么看出spark是单机模式还是集群模式?

浏览量:1853 时间:2021-03-23 07:07:41 作者:admin

怎么看出spark是单机模式还是集群模式?

如果您的答案是否定的,那么,您可以关闭此页。

首先,新手经常遇到一个问题:spark cluster是否一定需要Hadoop cluster?

答案是否定的。有三种类型的火花簇:

独立

Hadoop horn

mesos

今天,我们主要关注的是独立模式。在这种模式下,我们完全可以使用NFS来代替Hadoop/HDFS。在许多情况下,独立

1。将每个执行器使用的CPU数设置为4

]spark.executor.cores4] ] 2. 限制CPU的数量。在这里,将启动三个执行器(12/4)spark.cores.max最大值12

3. 将每个执行器的内存大小设置为8gspark.executor.memory内存12g

以上设置将启动三个执行器,每个执行器使用4个CPU和12克ram。

它占用12个CPU和36个ram的工作资源。

spark1.6的源代码是:

protected final string executor MEMORY=“--executor MEMORY”protected final string TOTAL executor CORES=“--TOTAL executor CORES”protected final string executor CORES=“--executor CORES”

提交任务时还可以添加:

sparksubmit classcom.dyq.spark公司.MyClass类--大师:火花:// 主:7077—执行器内核总数12--executor cores 24--executor memory 12g

提示

在使用过程中发现,如果使用spark 1.5以下的版本,有时即使有资源也无法应用。

如何在Spark集群的work节点上启动多个Executor?

建议使用8g以上的内存,建议使用12g以上的内存。spark的效率主要取决于数据量、内存消耗、内核数量(决定并发任务的数量)。硬件建设成本太高,建议构建虚拟机集群

spark集群部署 spark集群搭建步骤 spark集群模式

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。