执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1

简介: 执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1

执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1


3ba048ffa5674f2bac0dd22e93a6290d.jpeg


一、实验环境


  • CentOS7.5
  • Hadoop3.1.3
  • 伪分布式模式
  • IDEA


二、报错信息


1.执行MapReduce的Jar包报错: Exception in thread main ExitCodeException exitCode=1 chmod 无法访问tmphadoopmapredstagingzhangsan1447658824.stagingjob_local1447658824_0001 没有那个文件或目录 

1.jpeg


文件已经确定是存在的


2.根据报错信息,推断是`权限问题`,将Hadoop安装目录下的tmp目录权限改为777

# 先进入到Hadoop安装目录chmod777 ./tmp


但是这个方法并没有解决该报错


3.查找网上,有提到关于HDFS默认的group是超级用户组supergroup,需要更改为当前用户。相关操作见三 三、解决方法 


三、解决方法:


在Hadoop的Web界面可以看到group的权限是supergroup,`将普通用户增加到HDFS的超级用户组supergroup`


1.步骤

先切换到root用户


  • 提前查看`supergroup `相关信息
[root@hadoop112 zhangsan]# group supergroup /etc/group

bash: group: 未找到命令...


  • 继续过滤查找
[root@hadoop112 zhangsan]#grep supergroup /etc/group


没有输出结果


  • 增加supergroup组
[root@hadoop112 zhangsan]#groupadd supergroup


  • 再次过滤查找
[root@hadoop112 zhangsan]#grep supergroup /etc/group

supergroup:x:1001:


  • 将当前用户增加到supergroup组
[root@hadoop112 zhangsan]# usermod -a -G supergroup zhangsan


  • 查看用户是否成功添加到supergroup组
[root@hadoop112 zhangsan]# id zhangsan

uid=1000(zhangsan) gid=1000(zhangsan) 组=1000(yzhangsanoona),1001(supergroup)


  • 刷新用户到组的映射信息


Refresh user to groups mapping successful


  • 切换到普通用户
[root@hadoop112 zhangsan]# su zhangsan
[root@hadoop112 zhangsan]# hdfs dfsadmin -report


Configured Capacity: 38966558720 (36.29 GB)

Present Capacity: 25293688832 (23.56 GB)
DFS Remaining: 25293635584 (23.56 GB)
DFS Used: 53248 (52 KB)
DFS Used%: 0.00%
Replicated Blocks:
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Low redundancy blocks with highest priority to recover: 0
Pending deletion blocks: 0
Erasure Coded Block Groups:
Low redundancy block groups: 0
Block groups with corrupt internal blocks: 0
Missing block groups: 0
Low redundancy blocks with highest priority to recover: 0
Pending deletion blocks: 0


Live datanodes (1):


Name: 192.168.149.112:9866 (hadoop112)

Hostname: hadoop112

Decommission Status : Normal
Configured Capacity: 38966558720 (36.29 GB)
DFS Used: 53248 (52 KB)
Non DFS Used: 11669880832 (10.87 GB)
DFS Remaining: 25293635584 (23.56 GB)
DFS Used%: 0.00%
DFS Remaining%: 64.91%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Thu May 12 23:07:35 CST 2022
Last Block Report: Thu May 12 22:59:14 CST 2022
Num of Blocks: 2


2.遗憾点


这个方法仍然没有解决问题


四、另外一个问题


命令行执行MapReduce的Jar包,MR可以成功运行并输出正确结果,但是执行过程中自动地将IDEA关闭了。


猜想:yarn资源不够用? 但是只是测试一个简单的MR样例,应该不至于吧?


记录一下这个错误


五、参考资料:

https://cloud.tencent.com/developer/article/1545624#:~:text=Hadoop%E6%9C%AC%E8%BA%AB,S%E7%94%A8%E6%88%B7%E5%92%8C%E7%BB%84%E5%8D%B3%E5%8F%AF%E3%80%82



目录
相关文章
|
28天前
|
Java
【Azure Developer】com.azure:azure-identity jar包版本从1.2.0 升级到1.12.2 版本之后报错
在将 `com.azure:azure-identity` 的 jar 包版本从 1.2.0 升级到 1.12.2 后出现错误,错误信息表明存在方法未找到的问题。分析显示这是由于依赖管理错误导致,需要调整 classpath 确保使用兼容版本的依赖包。当前项目中 msal4j-1.11.0.jar 与 azure-identity-1.12.2 不兼容。
|
4月前
|
Java
[JarEditor]可直接修改jar包的IDEA插件
### 修改JAR包变得更简单:JarEditor插件简介 **背景:** 开发中常需修改JAR包中的class文件,传统方法耗时费力。JarEditor插件让你一键编辑JAR包内文件,无需解压。 **插件使用:** 1. **安装:** 在IDEA插件市场搜索JarEditor并安装。 2. **修改class:** 打开JAR文件中的class,直接编辑,保存后一键构建更新JAR。 3. **文件管理:** 右键菜单支持在JAR内新增/删除/重命名文件等操作。 4. **搜索:** 使用内置搜索功能快速定位JAR包内的字符串。
437 2
[JarEditor]可直接修改jar包的IDEA插件
|
4月前
|
弹性计算 Java Serverless
Serverless 应用引擎操作报错合集之上传自定义JAR包,启动时报错,是什么导致的
Serverless 应用引擎(SAE)是阿里云提供的Serverless PaaS平台,支持Spring Cloud、Dubbo、HSF等主流微服务框架,简化应用的部署、运维和弹性伸缩。在使用SAE过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
3月前
|
Java Maven C++
【Azure Developer】记录一次使用Java Azure Key Vault Secret示例代码生成的Jar包,单独运行出现 no main manifest attribute, in target/demo-1.0-SNAPSHOT.jar 错误消息
【Azure Developer】记录一次使用Java Azure Key Vault Secret示例代码生成的Jar包,单独运行出现 no main manifest attribute, in target/demo-1.0-SNAPSHOT.jar 错误消息
|
4月前
|
Java
关于idea报错:Cannot determine path to 'tools.jar' library for 17 (E:\java-jdk\jdk17)的解决办法
关于idea报错:Cannot determine path to 'tools.jar' library for 17 (E:\java-jdk\jdk17)的解决办法
|
4月前
|
关系型数据库 Java 分布式数据库
PolarDB产品使用问题之部署到服务器上的Java应用(以jar包形式运行)无法连接,如何解决
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
|
3月前
|
分布式计算 DataWorks Java
DataWorks操作报错合集之CDH节点上传jar包时遇到报错,该怎么办
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
4月前
|
消息中间件 分布式计算 Hadoop
实时计算 Flink版操作报错合集之使用flink jar开发,报错:找不到main方法,是什么原因
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
3月前
|
Java Maven Windows
java -jar 启动 boot 程序 no main manifest attribute, in .\vipsoft-model-web-0.0.1-SNAPSHOT.jar
java -jar 启动 boot 程序 no main manifest attribute, in .\vipsoft-model-web-0.0.1-SNAPSHOT.jar
58 0