spark集群部署 怎么看出spark是单机模式还是集群模式?
怎么看出spark是单机模式还是集群模式?
如果您的答案是否定的,那么,您可以关闭此页。
首先,新手经常遇到一个问题:spark cluster是否一定需要Hadoop cluster?
答案是否定的。有三种类型的火花簇:
独立
Hadoop horn
mesos
今天,我们主要关注的是独立模式。在这种模式下,我们完全可以使用NFS来代替Hadoop/HDFS。在许多情况下,独立
1。将每个执行器使用的CPU数设置为4
]spark.executor.cores4] ] 2. 限制CPU的数量。在这里,将启动三个执行器(12/4)spark.cores.max最大值12
3. 将每个执行器的内存大小设置为8gspark.executor.memory内存12g
以上设置将启动三个执行器,每个执行器使用4个CPU和12克ram。
它占用12个CPU和36个ram的工作资源。
spark1.6的源代码是:
protected final string executor MEMORY=“--executor MEMORY”protected final string TOTAL executor CORES=“--TOTAL executor CORES”protected final string executor CORES=“--executor CORES”
提交任务时还可以添加:
sparksubmit classcom.dyq.spark公司.MyClass类--大师:火花:// 主:7077—执行器内核总数12--executor cores 24--executor memory 12g
提示
在使用过程中发现,如果使用spark 1.5以下的版本,有时即使有资源也无法应用。
如何在Spark集群的work节点上启动多个Executor?
建议使用8g以上的内存,建议使用12g以上的内存。spark的效率主要取决于数据量、内存消耗、内核数量(决定并发任务的数量)。硬件建设成本太高,建议构建虚拟机集群
spark集群部署 spark集群搭建步骤 spark集群模式
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。