java本地缓存有哪些(解读JVM级别本地缓存Caffeine青出于蓝的要诀3 —— 讲透Caffeine的数据驱逐淘汰机制与用法)
大家好 ,又见面了 。
本文是笔者作为掘金技术社区签约作者的身份输出的缓存专栏系列内容 ,将会通过系列专题 ,讲清楚缓存的方方面面 。如果感兴趣 ,欢迎关注以获取后续更新 。
上一篇文章中 ,我们聊了下Caffeine的同步 、异步的数据回源方式 。本篇文章我们再一起研讨下Caffeine的多种不同的数据淘汰驱逐机制 ,以及对应的实际使用 。
Caffeine的异步淘汰清理机制
在惰性删除实现机制这边 ,Caffeine做了一些改进优化以提升在并发场景下的性能表现 。我们可以和Guava Cache的基于容量大小的淘汰处理做个对比 。
当限制了Guava Cache最大容量之后 ,有新的记录写入超过了总大小 ,会理解触发数据淘汰策略 ,然后腾出空间给新的记录写入 。比如下面这段逻辑:
public static void main(String[] args) { Cache<String, String> cache = CacheBuilder.newBuilder() .maximumSize(1) .removalListener(notification -> System.out.println(notification.getKey() + "被移除 ,原因:" + notification.getCause())) .build(); cache.put("key1", "value1"); System.out.println("key1写入后 ,当前缓存内的keys:" + cache.asMap().keySet()); cache.put("key2", "value1"); System.out.println("key2写入后,当前缓存内的keys:" + cache.asMap().keySet()); }其运行后的结果显示如下 ,可以很明显的看出 ,超出容量之后继续写入,会在写入前先执行缓存移除操作 。
key1写入后 ,当前缓存内的keys:[key1] key1被移除 ,原因:SIZE key2写入后 ,当前缓存内的keys:[key2]同样地 ,我们看下使用Caffeine实现一个限制容量大小的缓存对象的处理表现 ,代码如下:
public static void main(String[] args) { Cache<String, String> cache = Caffeine.newBuilder() .maximumSize(1) .removalListener((key, value, cause) -> System.out.println(key + "被移除 ,原因:" + cause)) .build(); cache.put("key1", "value1"); System.out.println("key1写入后 ,当前缓存内的keys:" + cache.asMap().keySet()); cache.put("key2", "value1"); System.out.println("key2写入后 ,当前缓存内的keys:" + cache.asMap().keySet()); }运行这段代码 ,会发现Caffeine的容量限制功能似乎“失灵 ”了!从输出结果看并没有限制住:
key1写入后 ,当前缓存内的keys:[key1] key2写入后 ,当前缓存内的keys:[key1, key2]什么原因呢?
Caffeine为了提升读写操作的并发效率而将数据淘汰清理操作改为了异步处理 ,而异步处理时会有微小的延时,由此导致了上述看到的容量控制“失灵 ”现象 。为了证实这一点 ,我们对上述的测试代码稍作修改 ,打印下调用线程与数据淘汰清理线程的线程ID,并且最后添加一个sleep等待操作:
public static void main(String[] args) throws Exception { System.out.println("当前主线程:" + Thread.currentThread().getId()); Cache<String, String> cache = Caffeine.newBuilder() .maximumSize(1) .removalListener((key, value, cause) -> System.out.println("数据淘汰执行线程:" + Thread.currentThread().getId() + " ," + key + "被移除 ,原因:" + cause)) .build(); cache.put("key1", "value1"); System.out.println("key1写入后 ,当前缓存内的keys:" + cache.asMap().keySe()); cache.put("key2", "value1"); Thread.sleep(1000L); // 等待一段时间时间 ,等待异步清理操作完成 System.out.println("key2写入后 ,当前缓存内的keys:" + cache.asMap().keySet()); }再次执行上述测试代码 ,发现结果变的符合预期了 ,也可以看出Caffeine的确是另起了独立线程去执行数据淘汰操作的 。
当前主线程:1 key1写入后 ,当前缓存内的keys:[key1] 数据淘汰执行线程:13 ,key1被移除 ,原因:SIZE key2写入后 ,当前缓存内的keys:[key2]深扒一下源码的实现 ,可以发现Caffeine在读写操作时会使用独立线程池执行对应的清理任务,如下图中的调用链执行链路 —— 这也证实了上面我们的分析 。
所以 ,严格意义来说 ,Caffeine的大小容量限制并不能够保证完全精准的小于设定的值,会存在短暂的误差 ,但是作为一个以高并发吞吐量为优先考量点的组件而言 ,这一点点的误差也是可以接受的。关于这一点 ,如果阅读源码仔细点的小伙伴其实也可以发现在很多场景的注释中 ,Caffeine也都会有明确的说明 。比如看下面这段从源码中摘抄的描述 ,就清晰的写着“如果有同步执行的插入或者移除操作 ,实际的元素数量可能会出现差异 ” 。
public interface Cache<K, V> { /** * Returns the approximate number of entries in this cache. The value returned is an estimate; the * actual count may differ if there are concurrent insertions or removals, or if some entries are * pending removal due to expiration or weak/soft reference collection. In the case of stale * entries this inaccuracy can be mitigated by performing a {@link #cleanUp()} first. * * @return the estimated number of mappings */ @NonNegative long estimatedSize(); // 省略其余内容... }同样道理 ,不管是基于大小 、还是基于过期时间或基于引用的数据淘汰策略 ,由于数据淘汰处理是异步进行的 ,都会存在短暂的不够精确的情况。
多种淘汰机制
上面提到并演示了Caffeine基于整体容量进行的数据驱逐策略 。除了基于容量大小之外 ,Caffeine还支持基于时间与基于引用等方式来进行数据驱逐处理 。
基于时间
Caffine支持基于时间进行数据的淘汰驱逐处理 。这部分的能力与Guava Cache相同 ,支持根据记录创建时间以及访问时间两个维度进行处理 。
数据的过期时间在创建缓存对象的时候进行指定 ,Caffeine在创建缓存对象的时候提供了3种设定过期策略的方法 。
方式 具体说明 expireAfterWrite 基于创建时间进行过期处理 expireAfterAccess 基于最后访问时间进行过期处理 expireAfter 基于个性化定制的逻辑来实现过期处理(可以定制基于新增 、读取 、更新等场景的过期策略,甚至支持为不同记录指定不同过期时间)下面逐个看下 。
expireAfterWriteexpireAfterWrite用于指定数据创建之后多久会过期 ,使用方式举例如下:
Cache<String, User> userCache = Caffeine.newBuilder() .expireAfterWrite(1, TimeUnit.SECONDS) .build(); userCache.put("123", new User("123", "张三"));当记录被写入缓存之后达到指定的时间之后 ,就会被过期淘汰(惰性删除,并不会立即从内存中移除 ,而是在下一次操作的时候触发清理操作) 。
expireAfterAccessexpireAfterAccess用于指定缓存记录多久没有被访问之后就会过期 。使用方式与expireAfterWrite类似:
Cache<String, User> userCache = Caffeine.newBuilder() .expireAfterAccess(1, TimeUnit.SECONDS) .build(); userCache.get("123", s -> userDao.getUser(s));这种是基于最后一次访问时间来计算数据是否过期 ,如果一个数据一直被访问 ,则其就不会过期 。比较适用于热点数据的存储场景 ,可以保证较高的缓存命中率 。同样地 ,数据过期时也不会被立即从内存中移除 ,而是基于惰性删除机制进行处理 。
expireAfter上面两种设定过期时间的策略与Guava Cache是相似的 。为了提供更为灵活的过期时间设定能力 ,Caffeine提供了一种全新的的过期时间设定方式 ,也即这里要介绍的expireAfter方法。其支持传入一个自定义的Expiry对象 ,自行实现数据的过期策略 ,甚至是针对不同的记录来定制不同的过期时间 。
先看下Expiry接口中需要实现的三个方法:
方法名称 含义说明 expireAfterCreate 指定一个过期时间 ,从记录创建的时候开始计时 ,超过指定的时间之后就过期淘汰,效果类似expireAfterWrite ,但是支持更灵活的定制逻辑 。 expireAfterUpdate 指定一个过期时间 ,从记录最后一次被更新的时候开始计时,超过指定的时间之后就过期。每次执行更新操作之后 ,都会重新计算过期时间 。 expireAfterRead 指定一个过期时间 ,从记录最后一次被访问的时候开始计时 ,超过指定时间之后就过期 。效果类似expireAfterAccess ,但是支持更高级的定制逻辑 。比如下面的代码中 ,定制了expireAfterCreate方法的逻辑 ,根据缓存key来决定过期时间 ,如果key以字母A开头则设定1s过期 ,否则设定2s过期:
public static void main(String[] args) { try { LoadingCache<String, User> userCache = Caffeine.newBuilder() .removalListener((key, value, cause) -> { System.out.println(key + "移除 ,原因:" + cause); }) .expireAfter(new Expiry<String, User>() { @Override public long expireAfterCreate(@NonNull String key, @NonNullUser value, long currentTime) { if (key.startsWith("A")) { return TimeUnit.SECONDS.toNanos(1); } else { return TimeUnit.SECONDS.toNanos(2); } } @Override public long expireAfterUpdate(@NonNull String key, @NonNullUser value, long currentTime, @NonNegative longcurrentDuration) { return Long.MAX_VALUE; } @Override public long expireAfterRead(@NonNull String key, @NonNull Uservalue, long currentTime, @NonNegative long currentDuration){ return Long.MAX_VALUE; } }) .build(key -> userDao.getUser(key)); userCache.put("123", new User("123", "123")); userCache.put("A123", new User("A123", "A123")); Thread.sleep(1100L); System.out.println(userCache.get("123")); System.out.println(userCache.get("A123")); } catch (Exception e) { e.printStackTrace(); } }执行代码进行测试 ,可以发现 ,不同的key拥有了不同的过期时间:
User(userName=123, userId=123, departmentId=null) A123移除 ,原因:EXPIRED User(userName=A123, userId=A123, departmentId=null)除了根据key来定制不同的过期时间,也可以根据value的内容来指定不同的过期时间策略 。也可以同时定制上述三个方法 ,搭配来实现更复杂的过期策略 。
按照这种方式来定时过期时间的时候需要注意一点 ,如果不需要设定某一维度的过期策略的时候,需要将对应实现方法的返回值设置为一个非常大的数值 ,比如可以像上述示例代码中一样 ,指定为Long.MAX_VALUE值 。
基于大小
除了前面提到的基于访问时间或者创建时间来执行数据过期淘汰的方式之外 ,Caffeine还支持针对缓存总体容量大小进行限制 ,如果容量满的时候 ,基于W-TinyLFU算法 ,淘汰最不常被使用的数据 ,腾出空间给新的记录写入 。
Caffeine支持按照Size(记录条数)或者按照Weighter(记录权重)值进行总体容量的限制 。关于Size和Weighter的区别 ,之前的文章中有介绍过 ,如果不清楚的小伙伴们可以查看下《重新认识下JVM级别的本地缓存框架Guava Cache(2)——深入解读其容量限制与数据淘汰策略》 。
maximumSize在创建Caffeine缓存对象的时候 ,可以通过maximumSize来指定允许缓存的最大条数 。
比如下面这段代码:
Cache<Integer, String> cache = Caffeine.newBuilder() .maximumSize(1000L) // 限制最大缓存条数 .build(); maximumWeight在创建Caffeine缓存对象的时候 ,可以通过maximumWeight与weighter组合的方式 ,指定按照权重进行限制缓存总容量 。比如一个字符串value值的缓存场景下,我们可以根据字符串的长度来计算权重值 ,最后根据总权重大小来限制容量 。
代码示意如下:
Cache<Integer, String> cache = Caffeine.newBuilder() .maximumWeight(1000L) // 限制最大权重值 .weigher((key, value) -> (String.valueOf(value).length() / 1000) + 1) .build(); 使用注意点需要注意一点:如果创建的时候指定了weighter ,则必须同时指定maximumWeight值,如果不指定 、或者指定了maximumSize ,会报错(这一点与Guava Cache一致):
java.lang.IllegalStateException: weigher requires maximumWeight at com.github.benmanes.caffeine.cache.Caffeine.requireState(Caffeine.java:201) at com.github.benmanes.caffeine.cache.Caffeine.requireWeightWithWeigher(Caffeine.java:1215) at com.github.benmanes.caffeine.cache.Caffeine.build(Caffeine.java:1099) at com.veezean.skills.cache.caffeine.CaffeineCacheService.main(CaffeineCacheService.java:254)基于引用
基于引用回收的策略 ,核心是利用JVM虚拟机的GC机制来达到数据清理的目的。当一个对象不再被引用的时候 ,JVM会选择在适当的时候将其回收 。Caffeine支持三种不同的基于引用的回收方法:
方法 具体说明 weakKeys 采用弱引用方式存储key值内容 ,当key对象不再被引用的时候 ,由GC进行回收 weakValues 采用弱引用方式存储value值内容 ,当value对象不再被引用的时候 ,由GC进行回收 softValues 采用软引用方式存储value值内容 ,当内存容量满时基于LRU策略进行回收下面逐个介绍下 。
weakKeys默认情况下 ,我们创建出一个Caffeine缓存对象并写入key-value映射数据时 ,key和value都是以强引用的方式存储的。而使用weakKeys可以指定将缓存中的key值以弱引用(WeakReference)的方式进行存储 ,这样一来 ,如果程序运行时没有其它地方使用或者依赖此缓存值的时候,该条记录就可能会被GC回收掉 。
LoadingCache<String, User> loadingCache = Caffeine.newBuilder() .weakKeys() .build(key -> userDao.getUser(key));小伙伴们应该都有个基本的认知 ,就是两个对象进行比较是否相等的时候 ,要使用equals方法而非== 。而且很多时候我们会主动去覆写hashCode方法与equals方法来指定两个对象的相等判断逻辑 。但是基于引用的数据淘汰策略,关注的是引用地址值而非实际内容值 ,也即一旦使用weakKeys指定了基于引用方式回收 ,那么查询的时候将只能是使用同一个key对象(内存地址相同)才能够查询到数据 ,因为这种情况下查询的时候 ,使用的是==判断是否为同一个key 。
看下面的例子:
public static void main(String[] args) { Cache<String, String> cache = Caffeine.newBuilder() .weakKeys() .build(); String key1 = "123"; cache.put(key1, "value1"); System.out.println(cache.getIfPresent(key1)); String key2 = new String("123"); System.out.println("key1.equals(key2) : " + key1.equals(key2)); System.out.println("key1==key2 : " + (key1==key2)); System.out.println(cache.getIfPresent(key2)); }执行之后 ,会发现使用存入时的key1进行查询的时候是可以查询到数据的 ,而使用key2去查询的时候并没有查询到记录 ,虽然key1与key2的值都是字符串123!
value1 key1.equals(key2) : true key1==key2 : false null在实际使用的时候 ,这一点务必需要注意 ,对于新手而言 ,很容易踩进坑里 。
weakValues与weakKeys类似 ,我们可以在创建缓存对象的时候使用weakValues指定将value值以弱引用的方式存储到缓存中 。这样当这条缓存记录的对象不再被引用依赖的时候 ,就会被JVM在适当的时候回收释放掉 。
LoadingCache<String, User> loadingCache = Caffeine.newBuilder() .weakValues() .build(key -> userDao.getUser(key));实际使用的时候需要注意weakValues不支持在AsyncLoadingCache中使用 。比如下面的代码:
public static void main(String[] args) { AsyncLoadingCache<String, User> cache = Caffeine.newBuilder() .weakValues() .buildAsync(key -> userDao.getUser(key)); }启动运行的时候,就会报错:
Exception in thread "main" java.lang.IllegalStateException: Weak or soft values cannot be combined with AsyncLoadingCache at com.github.benmanes.caffeine.cache.Caffeine.requireState(Caffeine.java:201) at com.github.benmanes.caffeine.cache.Caffeine.buildAsync(Caffeine.java:1192) at com.github.benmanes.caffeine.cache.Caffeine.buildAsync(Caffeine.java:1167) at com.veezean.skills.cache.caffeine.CaffeineCacheService.main(CaffeineCacheService.java:297)当然咯 ,很多时候也可以将weakKeys与weakValues组合起来使用 ,这样可以获得到两种能力的综合加成 。
LoadingCache<String, User> loadingCache = Caffeine.newBuilder() .weakKeys() .weakValues() .build(key -> userDao.getUser(key)); softValuessoftValues是指将缓存内容值以软引用的方式存储在缓存容器中,当内存容量满的时候Caffeine会以LRU(least-recently-used ,最近最少使用)顺序进行数据淘汰回收 。对比下其与weakValues的差异:
方式 具体描述 weakValues 弱引用方式存储 ,一旦不再被引用 ,则会被GC回收 softValues 软引用方式存储 ,不会被GC回收 ,但是在内存容量满的时候 ,会基于LRU策略数据回收具体使用的时候 ,可以在创建缓存对象的时候进行指定基于软引用方式数据淘汰:
LoadingCache<String, User> loadingCache = Caffeine.newBuilder() .softValues() .build(key -> userDao.getUser(key));与weakValues一样 ,需要注意softValues也不支持在AsyncLoadingCache中使用 。此外 ,还需要注意softValues与weakValues两者也不可以一起使用 。
public static void main(String[] args) { LoadingCache<String, User> cache = Caffeine.newBuilder() .weakKeys() .weakValues() .softValues() .build(key -> userDao.getUser(key)); }启动运行的时候 ,也会报错:
Exception in thread "main" java.lang.IllegalStateException: Value strength was already set to WEAK at com.github.benmanes.caffeine.cache.Caffeine.requireState(Caffeine.java:201) at com.github.benmanes.caffeine.cache.Caffeine.softValues(Caffeine.java:572) at com.veezean.skills.cache.caffeine.CaffeineCacheService.main(CaffeineCacheService.java:297)小结回顾
好啦 ,关于Caffeine Cache的数据淘汰驱逐策略的实现原理与使用方式的阐述 ,就介绍到这里了。至此呢,关于Caffeine相关的内容就全部结束了 ,通过与Caffeine相关的这三篇文章 ,我们介绍完了Caffeine的整体情况 、与Guava Cache相比的改进点 、Caffeine的项目中使用,以及Caffeine在数据回源 、数据驱逐等方面的展开探讨 。关于Caffeine Cache ,你是否有自己的一些想法与见解呢?欢迎评论区一起交流下 ,期待和各位小伙伴们一起切磋 、共同成长 。
说起JAVA的本地缓存 ,除了此前提及的Guava Cache和这里介绍的Caffeine ,还有一个同样无法被忽视的存在 —— Ehcache!作为被Hibernate选中的默认缓存实现框架 ,它究竟有什么魅力?它与Caffeine又有啥区别呢?接下来的文章中 ,我们就一起来认识下Ehcache ,尝试找寻出答案。
? 补充说明1 :
本文属于《深入理解缓存原理与实战设计》系列专栏的内容之一 。该专栏围绕缓存这个宏大命题进行展开阐述 ,全方位 、系统性地深度剖析各种缓存实现策略与原理 、以及缓存的各种用法 、各种问题应对策略 ,并一起探讨下缓存设计的哲学 。
如果有兴趣 ,也欢迎关注此专栏 。
? 补充说明2 :
关于本文中涉及的演示代码的完整示例 ,我已经整理并提交到github中 ,如果您有需要,可以自取:https://github.com/veezean/JavaBasicSkills我是悟道 ,聊技术、又不仅仅聊技术~
如果觉得有用 ,请点赞 + 关注让我感受到您的支持 。也可以关注下我的公众号【架构悟道】,获取更及时的更新 。
期待与你一起探讨 ,一起成长为更好的自己 。
创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!