2016 - 2025

感恩一路有你

累加器AC的使用方法 如何在Spark集群的work节点上启动多个Executor?

浏览量:2486 时间:2021-03-13 13:23:51 作者:admin

如何在Spark集群的work节点上启动多个Executor?

1、设置每个executor使用的cpu数为4

spark.executor.cores 4

2、限制cpu使用数量,这里会启动3个executor(12/4)

spark.cores.max 12

3、设置每个executor的内存大小为8g

spark.executor.memory 12g

以上设置将会启动3个executor,每个executor使用4cpu,12gRAM。

总共占用worker资源12cpu,36gRAM。

Spark1.6的源码部分为:

protected final String EXECUTOR_MEMORY = "--executor-memory"protected final String TOTAL_EXECUTOR_CORES = "--total-executor-cores"protected final String EXECUTOR_CORES = "--executor-cores"

也可以在提交任务的时候添加:

SparkSubmit --class com.dyq.spark.MyClass --master:spark://master:7077 --total-executor-cores 12 --executor-cores 24 --executor-memory 12g

tip

在使用过程中发现如果使用spark1.5以下版本有时候会出现即使有资源也申请不到的情况。

SparkSQL对于重复的计算怎么优化?

Spark sql是为了处理结构化数据的一个spark 模块。 不同于spark rdd的基本API,spark sql接口更多关于数据结构本身与执行计划等更多信息。 在spark内部,sql sql利用这些信息去更好地进行优化。 有如下几种方式执行spark sql:SQL,DataFramesAPI与Datasets API。当相同的计算引擎被用来执行一个计算时,有不同的API和语言种类可供选择。 这种统一性意味着开发人员可以来回轻松切换各种最熟悉的API来完成同一个计算工作。

累加器AC的使用方法 spark的四大组件是什么 spark有哪些组件

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。