hadoop与spark的区别与联系 在hadoop和spark之间如何取舍?
浏览量:2139
时间:2021-03-16 10:11:49
作者:admin
在hadoop和spark之间如何取舍?
一般来说,Hadoop和spark是主流行业的大数据技术。学习时,两个系统都会学习,先学习Hadoop,再学习spark。
Apache开源组织的分布式基础设施提供了分布式文件系统(HDFS)、分布式计算(MapReduce)和统一资源管理框架(yarn)的软件体系结构。用户可以在不了解分布式系统的基本细节的情况下开发分布式程序。
为大规模数据处理设计的快速通用计算引擎。用于构建大型、低延迟的数据分析应用程序。它可以用来完成各种操作,包括SQL查询、文本处理、机器学习等。
https://www.toutiao.com/i654015696262573648397/
hadoop与spark的区别是什么?
感谢您的邀请
!请看下面的图片:
狭义的Hadoop,也就是原始版本:只有HDFS map reduce
未来会出现很多存储、计算和管理框架。
如果我们比较它们,我们可以比较Hadoop map reduce和spark,因为它们是用于大数据分析的计算框架。
Spark有许多线路组件,它们更强大、更快。
hadoop与spark的区别与联系 spark和hadoop的区别 hadoop是做什么的
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。