在hadoop和spark之间如何取舍?
一般来说,主流业界大数据技术Hadoop和Spark都会用到,在学习的时候,两个体系都会学习,先学习Hadoop,在学Spark。
Hadoop:
Apache开源组织的一个分布式基础框架,提供了一个分布式文件系统(HDFS)、分布式计算(MapReduce)及统一资源管理框架(YARN)的软件架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。
Spark:
专为大规模数据处理而设计的快速通用的计算引擎。用来构建大型的、低延迟的数据分析应用程序。可用它来完成各种各样的运算,包括 SQL 查询、文本处理、机器学习等。
相关:Spark能代替Hadoop吗?
https://www.toutiao.com/i6540156962573648397/
Copyright © 广州京杭网络科技有限公司 2005-2024 版权所有 粤ICP备16019765号
广州京杭网络科技有限公司 版权所有