开发者社区> 问答> 正文

Spark和RDD的关系是怎样的?

Spark和RDD的关系是怎样的?

展开
收起
游客coqayqskxr2xe 2021-12-06 20:40:40 634 0
1 条回答
写回答
取消 提交回答
  • 可以理解为RDD是一种具有容错性基于内存的集群计算抽象方法,Spark则是这个抽象方法的实现.

    2021-12-06 20:41:06
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载