开发者社区> 问答> 正文

spark任务(每个执行程序)共享缓存位置吗?

spark会使用相同的缓存位置来存储每个执行程序的tmp文件

例如,如果我在一个执行程序中运行了两个任务并且都创建了一个具有相同名称的文件,那么是否会出现“文件存在”的错误?

展开
收起
社区小助手 2018-12-05 14:13:39 1662 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    它确实使用相同的缓存位置,根据其spark local dirs属性,以及io tmp dir for java stuff,

    如果通过创建文件你的意思是添加一个文件(addFile),那么你也可以通过将spark.files.overwrite设置为true来解决这个问题,这只有在当前文件与新添加的文件不同时才有效。

    2019-07-17 23:18:21
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载

相关实验场景

更多