当前位置:  开发笔记 > 数据库 > 正文

为什么我必须明确告诉Spark要缓存什么?

如何解决《为什么我必须明确告诉Spark要缓存什么?》经验,为你挑选了1个好方法。



1> zero323..:

一个主观的原因列表:

实际上,很少需要缓存,主要用于迭代算法,打破长谱系.例如,典型的ETL管道可能根本不需要缓存.缓存大多数RDD绝对不是正确的选择.

没有通用的缓存策略.实际选择取决于可用的资源,如内存量,磁盘(本地,远程,存储服务),文件系统(内存,磁盘)和特定应用程序.

磁盘持久性很昂贵,内存持久性会给JVM带来更多压力,并且正在使用Spark中最有价值的资源

如果不对应用程序语义做出假设,就不可能自动缓存.特别是:

数据源更改时的预期行为.没有通用答案,在许多情况下,无法自动跟踪更改

区分确定性和非确定性转换以及在缓存和重新计算之间进行选择

将Spark缓存与OS级别缓存进行比较没有意义.操作系统缓存的主要目标是减少延迟.在Spark中,延迟通常不是最重要的因素,缓存用于其他目的,如一致性,正确性和减少系统不同部分的压力.

如果缓存不使用堆外存储,则缓存会给垃圾收集器带来额外的压力.GC成本实际上可能高于重新计算数据的成本.

取决于数据和缓存方法,从缓存中读取数据可能在内存方面明显降低效率.

缓存会干扰Spark SQL中可用的更高级优化,从而有效地禁用分区修剪或谓词和投影下推.

还值得注意的是:

使用LRU自动处理删除缓存的数据

一些数据(如中间混洗数据)会自动保留.我承认它使一些先前的论点至少部分无效.

Spark缓存不会影响系统级别或JVM级别机制

推荐阅读
家具销售_903
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有