做项目时候发现程序的时间都用在了 count()、 collect()、 distinct() 这样的 action 操作上, 另外我查了一下它最初的设计论文:
Resilient Distributed Datasets : A Fault-Tolerant Abstraction for In-Memory Cluster Computing 这篇文章,
里面有写: RDDs do not need to be materialized at all times. Instead, an RDD has enough information about how it was derived form other datasets 。
是不是说 如果不执行 action 操作,那么其实系统并不会 “真正地”将 RDD 进行转换, 而是记录下转换的顺序与方法, 在执行 action 操作时 会统一执行? 这样如果有了错误的数据产生, Spark 可以及时 重新生成正确的 RDD ,来保证容错性呢?
因为涉及到 Spark 程序的设计,想请教一下大家,谢谢
1
weikey 2016-04-24 11:36:51 +08:00
是的
|
2
sleeperqp 2016-04-24 12:00:22 +08:00
是 借鉴了惰性计算~
|
3
alexapollo 2016-04-24 16:20:47 +08:00
|