spark软件 学习大数据,特别是spark,电脑需要多大的内存,用虚拟机搭建集群?
浏览量:2466
时间:2021-03-16 13:52:10
作者:admin
学习大数据,特别是spark,电脑需要多大的内存,用虚拟机搭建集群?
建议使用8g以上的内存,建议使用12g内存。spark的效率主要取决于数据量、内存消耗、内核数量(决定并发任务的数量)。硬件建设成本太高,建议构建虚拟机集群
spark软件 spark安装详细教程 虚拟机安装scala
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。