开发者社区> 问答> 正文

hadoop找不到hive创建的文件

我是一名大数据初学者。

昨天点击弹出一个软件升级的提示,升级后hive里面的所有文件在hadoop都找不到了。但是hive能正常运行。 我的hive默认路径是 /user/hive/warehouse,系统是ubuntu,此前软件配置没有问题。

在其他搜索引擎找不到解决方案,特来此向高人请教解决方案。

QQ截图20201207212001.jpg QQ截图20201207212045.jpg

展开
收起
zjz2165 2020-12-07 21:27:04 870 0
1 条回答
写回答
取消 提交回答
  • Hadoop archive 唯一的优势可能就是将众多的小文件打包成一个har 文件了,那这个文件就会按照dfs.block.size 的大小进行分块,因为hdfs为每个块的元数据大小大约为150个字节,如果众多小文件的存在(什么是小文件内,就是小于dfs.block.size 大小的文件,这样每个文件就是一个block)占用大量的namenode 堆内存空间,打成har 文件可以大大降低namenode 守护节点的内存压力。但对于MapReduce 来说起不到任何作用,因为har文件就相当一个目录,仍然不能讲小文件合并到一个split中去,一个小文件一个split ,任然是低效的,这里要说一点<<hadoop 权威指南 中文版>>对这个翻译有问题,上面说可以分配到一个split中去,但是低效的。 既然有优势自然也有劣势,这里不说它的不足之处,仅介绍如果使用har 并在hadoop中更好的使用har 文件 首先 看下面的命令 hadoop archive -archiveName 20131101.har /user/hadoop/login/201301/01 /user/hadoop/login/201301/01 我用上面的命令就可以将 /user/hadoop/login/201301/01 目录下的文件打包成一个 20131101.har 的归档文件,但是系统不会自动删除源文件,需要手动删除 hadoop fs -rmr /user/hadoop/login/201301/01/..* 我是用正则表达式来删除的,大家根据自己的需求删除原始文件

    2021-02-24 18:07:22
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hadoop存储与计算分离实践 立即下载
Hadoop的过去现在和未来 立即下载
海量结构化和非结构化大数据Hadoop集群规划 立即下载

相关实验场景

更多