开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

为什么HDFS只适用于大型数据集而不适用于许多小文件?

为什么HDFS只适用于大型数据集而不适用于许多小文件?

展开
收起
南霸天霸南北 2019-11-07 20:07:59 5028 0
1 条回答
写回答
取消 提交回答
  • 阿里云头部开发者运营小二

    这是由于NameNode的性能问题。通常,NameNode被分配了巨大的空间来存储大规模文件的元数据。元数据应该来自单个文件,以实现最佳的空间利用率和成本效益。对于小尺寸文件,NameNode不使用整个空间,这是性能优化问题。

    2019-11-07 20:08:12
    赞同 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

热门讨论

热门文章

相关电子书

更多
海量数据分布式存储——Apache HDFS之最新进展 立即下载
Quanta:Quora的HBase分层计数系统 立即下载
Hadoop存储与计算分离实践 立即下载