累加器AC的使用方法 如何在Spark集群的work节点上启动多个Executor?
如何在Spark集群的work节点上启动多个Executor?
1、设置每个executor使用的cpu数为4
spark.executor.cores 4
2、限制cpu使用数量,这里会启动3个executor(12/4)
spark.cores.max 12
3、设置每个executor的内存大小为8g
spark.executor.memory 12g
以上设置将会启动3个executor,每个executor使用4cpu,12gRAM。
总共占用worker资源12cpu,36gRAM。
Spark1.6的源码部分为:
protected final String EXECUTOR_MEMORY = "--executor-memory"protected final String TOTAL_EXECUTOR_CORES = "--total-executor-cores"protected final String EXECUTOR_CORES = "--executor-cores"
也可以在提交任务的时候添加:
SparkSubmit --class com.dyq.spark.MyClass --master:spark://master:7077 --total-executor-cores 12 --executor-cores 24 --executor-memory 12g
tip
在使用过程中发现如果使用spark1.5以下版本有时候会出现即使有资源也申请不到的情况。
SparkSQL对于重复的计算怎么优化?
Spark sql是为了处理结构化数据的一个spark 模块。 不同于spark rdd的基本API,spark sql接口更多关于数据结构本身与执行计划等更多信息。 在spark内部,sql sql利用这些信息去更好地进行优化。 有如下几种方式执行spark sql:SQL,DataFramesAPI与Datasets API。当相同的计算引擎被用来执行一个计算时,有不同的API和语言种类可供选择。 这种统一性意味着开发人员可以来回轻松切换各种最熟悉的API来完成同一个计算工作。
累加器AC的使用方法 spark的四大组件是什么 spark有哪些组件
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。