Spark采用RDD以后能实现高效计算的原因有()A:中间结果存入磁盘B:中间结果可持久化到内存C:高效的容错性D:采用分区可实现计算向数据靠拢 存入 可实现 持久化 发布时间:2024-05-07 10:48:57