1. 简介
Guava Cache是指在JVM的内存中缓存数据,相比较于传统的数据库或redis存储,访问内存中的数据会更加高效,无网络开销。
根据Guava官网介绍,下面的这几种情况可以考虑使用Guava Cache:
1. 愿意消耗一些内存空间来提升速度。
2. 预料到某些键会被多次查询。
3. 缓存中存放的数据总量不会超出内存容量。
因此,Guava Cache特别适合存储那些访问量大、不经常变化、数据量不是很大的数据,以改善程序性能。
2. 类图
Guava Cache的类图中,主要涉及了5个类:CacheBuilder、LocalCache、Segment、EntryFactory和ReferenceEntry,大部分业务逻辑都在前面三个类,依次介绍如下:
2.1 CacheBuilder
CacheBuilder是一个用于构建Cache的类,是建造者模式的一个例子,主要的方法有:
- maximumSize(long maximumSize): 设置缓存存储的所有元素的最大个数。
- maximumWeight(long maximumWeight): 设置缓存存储的所有元素的最大权重。
- expireAfterAccess(long duration, TimeUnit unit): 设置元素在最后一次访问多久后过期。
- expireAfterWrite(long duration, TimeUnit unit): 设置元素在写入缓存后多久过期。
- concurrencyLevel(int concurrencyLevel): 设置并发水平,即允许多少线程无冲突的访问Cache,默认值是4,该值越大,LocalCache中的segment数组也会越大,访问效率越高,当然空间占用也大一些。
- removalListener(RemovalListener<? super K1, ? super V1> listener): 设置元素删除通知器,在任意元素无论何种原因被删除时会调用该通知器。
- setKeyStrength(Strength strength): 设置元素的key是强引用,还是弱引用,默认强引用,并且该属性也指定了EntryFactory使用是强引用还是弱引用。
- setValueStrength(Strength strength) : 设置元素的value是强引用,还是弱引用,默认强引用。
2.2 LocalCache
LocalCache是一个支持并发访问的Hash Map,它实现了ConcurrentMap,其内部会持有一个segment数组,元素的增删改查都是通过调用segment的对应方法来实现的,
其主要的方法有:
- get(Object key): 查询一个key,内部实现是调用了Segment的get方法。
- public V put(K key, V value): 添加一个对象到cache中,内部实现是调用了Segment的put方法。
- remove(Object key) : 删除一个key,内部实现是调用了Segment的remove方法。
- replace(K key, V value):更新一个key,内部实现是调用了Segment的update方法。
2.3 Segment
segment是实际元素的持有者,它内部持有一个table数组,数组的每个元素又对应一个链表,链表上则保存了实际的元素,它的主要方法对应LocalCache提供的增删改查的接口,这里就不再啰嗦了。
2.4 EntryFactory
EntryFactory是entry的创建工厂,可支持创建强引用、弱引用、强读引用、强写引用、强读写引用、弱读引用、弱写引用、弱读写引用等类型的元素。
强引用和弱引用就是java四种引用类型里面的强弱引用,默认是强引用,而读引用是指创建的元素会记录最后一次的访问时间,如果用户在CahceBuilder中调用了expireAfterAccess或者maximumWeight则会使用读引用类型的工厂,写引用类型也是同样的逻辑。
2.5 ReferenceEntry
ReferenceEntry是元素的接口定义,它的实现类就是EntryFactory中创建的元素,包含了8种类型的元素,元素中至少包含了key、value和hash三个字段,其中hash是当前元素的hash值,如果是读引用则会多一个accessTime字段,以强引用的构造方法为例:
static class StrongEntry<K, V> extends AbstractReferenceEntry<K, V> { final K key; StrongEntry(K key, int hash, @Nullable ReferenceEntry<K, V> next) { this.key = key; this.hash = hash; this.next = next; } @Override public K getKey() { return this.key; } // The code below is exactly the same for each entry type. final int hash; final @Nullable ReferenceEntry<K, V> next; volatile ValueReference<K, V> valueReference = unset();
强读引用的代码如下:
StrongAccessEntry(K key, int hash, @Nullable ReferenceEntry<K, V> next) { super(key, hash, next); // 继承了StrongEntry,并多了accessTime } // The code below is exactly the same for each access entry type. volatile long accessTime = Long.MAX_VALUE;
2.6 LocalCache示例
上面对LoacheCache所涉及的主要的类都做了介绍,下面画一张示例图给个直观感受,该例子中的Cache中包含的segment数组大小为4(默认值是4),第二个segment的table数组大小为4,其中第二个table中的链表中有3个元素(简便起见,其他segment和table中的元素就不画了),
3. 主要方法
上面介绍了几个主要的类,下面从使用者的角度来把这几个类串联起来,主要包含了:创建Cache、添加对象、访问对象和删除对象。
3.1 创建Cache
创建一个Cache的实现代码如下:
LoadingCache<Key, Graph> graphs = CacheBuilder.newBuilder() .maximumSize(10000) // 最大元素个数 .expireAfterWrite(Duration.ofMinutes(10)) // 元素写入10分钟后期 .removalListener(MY_LISTENER) // 自定义的一个监听器 .build( new CacheLoader<Key, Graph>() { // 元素加载器,当查询元素不存在时,会自动调用该方法进行加载,然后再返回元素 public Graph load(Key key) throws AnyException { return createExpensiveGraph(key); } }); }
3.2 添加元素
添加元素访问的是LocalCache的put方法(注意这个方法是没有锁的),代码如下:
@Override public V put(K key, V value) { checkNotNull(key); checkNotNull(value); int hash = hash(key); // 首先计算key的hash值,并根据hash选定segment,再调用segment的put方法 return segmentFor(hash).put(key, hash, value, false); } /** * Returns the segment that should be used for a key with the given hash. * * @param hash the hash code for the key * @return the segment */ Segment<K, V> segmentFor(int hash) { // return segments[(hash >>> segmentShift) & segmentMask]; }
再看下segment中的put方法(注意这个方法是有锁的):
@Nullable V put(K key, int hash, V value, boolean onlyIfAbsent) { lock(); // 一开始先加锁 try { long now = map.ticker.read(); // 当前时间,单位纳秒 preWriteCleanup(now); // 删除过期元素 int newCount = this.count + 1; if (newCount > this.threshold) { // 必要时先扩容 expand(); newCount = this.count + 1; } // 根据hash再定位在table中的位置 AtomicReferenceArray<ReferenceEntry<K, V>> table = this.table; int index = hash & (table.length() - 1); // 取得table中对应位置的链表的首个元素 ReferenceEntry<K, V> first = table.get(index); // 遍历该链表,如果已在链表中则更新值. for (ReferenceEntry<K, V> e = first; e != null; e = e.getNext()) { K entryKey = e.getKey(); if (e.getHash() == hash && entryKey != null && map.keyEquivalence.equivalent(key, entryKey)) { // We found an existing entry. ValueReference<K, V> valueReference = e.getValueReference(); V entryValue = valueReference.get(); if (entryValue == null) { ++modCount; if (valueReference.isActive()) { enqueueNotification( key, hash, entryValue, valueReference.getWeight(), RemovalCause.COLLECTED); setValue(e, key, value, now); newCount = this.count; // count remains unchanged } else { setValue(e, key, value, now); newCount = this.count + 1; } this.count = newCount; // write-volatile evictEntries(e); return null; } else if (onlyIfAbsent) { // Mimic // "if (!map.containsKey(key)) ... // else return map.get(key); recordLockedRead(e, now); return entryValue; } else { // clobber existing entry, count remains unchanged ++modCount; enqueueNotification( key, hash, entryValue, valueReference.getWeight(), RemovalCause.REPLACED); setValue(e, key, value, now); evictEntries(e); return entryValue; } } } // 在链表中未找到,则创建一个新的元素,并添加在链表的头部,即2.6章节示例中的table[1]和entry1之间. ++modCount;// 链表更新操作次数加1 ReferenceEntry<K, V> newEntry = newEntry(key, hash, first); setValue(newEntry, key, value, now); table.set(index, newEntry);// 添加到链表头部 newCount = this.count + 1; this.count = newCount; // segment内的元素个数加1 evictEntries(newEntry); return null; } finally { unlock(); postWriteCleanup(); // 前面删除元素时,会把删除通知加入到队列中,在这里遍历删除通知队列并发出通知 } }
添加方法的代码如上所示,重点有两个地方:
1. LocalCache的put方法中是不加锁的,而Segment中的put方法是加锁的,因此在访问量很大的时候,可以通过提高concurrencyLevel的值来提高segment数组大小,减少锁冲突。
2. 在执行put方法时,会“顺便”执行清理操作,删除过期的元素,因为Guava Cache没有后台线程,因此删除操作是在每次的put操作和一定次数的read操作时执行的,且清理的是当前segment的过期元素,这也告诉我们过期的元素并不是立即被删除的,即内存不是立即释放的,会随着我们的读写操作来释放的,当然如果Guava Cache本身访问量不大,导致累积了大量过期元素后,再来访问可能会有较大的访问耗时。
3.3 访问元素
访问元素访问的是LocalCache的get方法(注意这个方法是没有锁的),代码如下:
public @Nullable V getIfPresent(Object key) { // 和put一样,先对key做hash,再定位segment,然后调用get访问 int hash = hash(checkNotNull(key)); V value = segmentFor(hash).get(key, hash); if (value == null) { globalStatsCounter.recordMisses(1); } else { globalStatsCounter.recordHits(1); } return value; }
继续看segment的get方法(注意这个方法是没有锁的):
@Nullable V get(Object key, int hash) { try { if (count != 0) { // read-volatile long now = map.ticker.read(); // 查询存活的元素 ReferenceEntry<K, V> e = getLiveEntry(key, hash, now); if (e == null) { return null; } V value = e.getValueReference().get(); if (value != null) { recordRead(e, now); // 检查是否需要刷新元素 return scheduleRefresh(e, e.getKey(), hash, value, now, map.defaultLoader); } // 删除非强引用的队列,包含key队列和value队列 tryDrainReferenceQueues(); } return null; } finally { postReadCleanup();// 检查是否有过期元素待删除 } }
下面再看下getLiveEntry和postReadCleanup方法:
@Nullable ReferenceEntry<K, V> getLiveEntry(Object key, int hash, long now) { ReferenceEntry<K, V> e = getEntry(key, hash); if (e == null) { return null; } else if (map.isExpired(e, now)) { // 检查元素是否过期 tryExpireEntries(now); return null; } return e; } @Nullable ReferenceEntry<K, V> getEntry(Object key, int hash) { // 根据hash定位table中位置的链表,并进行遍历,检查hash是否相等 for (ReferenceEntry<K, V> e = getFirst(hash); e != null; e = e.getNext()) { if (e.getHash() != hash) { continue; } K entryKey = e.getKey(); if (entryKey == null) { // 被垃圾回收期回收,清理引用队列 tryDrainReferenceQueues(); continue; } if (map.keyEquivalence.equivalent(key, entryKey)) { return e; } } return null; }
/** Returns first entry of bin for given hash. */
ReferenceEntry<K, V> getFirst(int hash) {
// read this volatile field only once
AtomicReferenceArray<ReferenceEntry<K, V>> table = this.table;
return table.get(hash & (table.length() - 1));
}
void postReadCleanup() { // DRAIN_THRESHOLD=63,即每读64次会执行一次清理操作 if ((readCount.incrementAndGet() & DRAIN_THRESHOLD) == 0) { cleanUp(); } }
读方法相对要简单一些,重点有两个地方:
1. 查找到元素后检查是否过期,过期则删除,否则返回。
2. put方法每次调用都执行清理方法,get方法每调用64次get方法,才会执行一次清理。
注意,前面示例中的CacheBuilder创建LocalCache时,添加了元素加载器,当get方法中发现元素不存在时
3.4 删除元素
删掉元素是invalidate()接口,该接口最终调用了segment的remove方法实现,如下:
V remove(Object key, int hash) { lock(); // 和put有些类似,先加锁,再搜索,然后从链表删除 try { long now = map.ticker.read(); preWriteCleanup(now); int newCount = this.count - 1; AtomicReferenceArray<ReferenceEntry<K, V>> table = this.table; int index = hash & (table.length() - 1); ReferenceEntry<K, V> first = table.get(index); for (ReferenceEntry<K, V> e = first; e != null; e = e.getNext()) { K entryKey = e.getKey(); if (e.getHash() == hash && entryKey != null && map.keyEquivalence.equivalent(key, entryKey)) { ValueReference<K, V> valueReference = e.getValueReference(); V entryValue = valueReference.get(); RemovalCause cause; if (entryValue != null) { cause = RemovalCause.EXPLICIT; } else if (valueReference.isActive()) { cause = RemovalCause.COLLECTED; } else { // currently loading return null; } ++modCount; // 删除方法有些特别,看下面分析 ReferenceEntry<K, V> newFirst = removeValueFromChain(first, e, entryKey, hash, entryValue, valueReference, cause); newCount = this.count - 1; table.set(index, newFirst); this.count = newCount; // write-volatile return entryValue; } } return null; } finally { unlock(); postWriteCleanup(); } } // removeValueFromChain调用了removeEntryFromChain @GuardedBy("this") @Nullable ReferenceEntry<K, V> removeEntryFromChain( ReferenceEntry<K, V> first, ReferenceEntry<K, V> entry) { int newCount = count; ReferenceEntry<K, V> newFirst = entry.getNext(); // 删除元素时,没有直接从链表上面摘除,而是遍历first和entry之间的元素,并拷贝新建新的元素构建链表 for (ReferenceEntry<K, V> e = first; e != entry; e = e.getNext()) { ReferenceEntry<K, V> next = copyEntry(e, newFirst); if (next != null) { newFirst = next; } else { removeCollectedEntry(e); newCount--; } } this.count = newCount; return newFirst; }
注意删除的时候,并没有直接从链表摘除,而是做了一次遍历新建了一个链表,举个例子:
为什么要做一次遍历呢?先看一下StrongEntry的定义:
static class StrongEntry<K, V> extends AbstractReferenceEntry<K, V> { final K key; final int hash; final @Nullable ReferenceEntry<K, V> next; volatile ValueReference<K, V> valueReference = unset(); }
key,hash和next都是final的,通过这种新建链表的方式,可以保证当前的并发读线程是能读到数据的(读方法无锁),即使是过期的,这其实就是CopyOnWrite的思想。
4. 小结
从上面分析可以看出,guava cache是一款非常优秀的本地缓存组件,为了得到更好的效率,减少写操作锁冲突(读操作无锁),可以将concurrencyLevel设置为当前CPU核数的2两倍。
初始化代码如下:
Cache<String, Integer> lcache = CacheBuilder.newBuilder() .maximumSize(100) .concurrencyLevel(Runtime.getRuntime().availableProcessors()*2) // 当前CPU核数*2
.expireAfterWrite(30, TimeUnit.SECONDS) .build();
之后就可以通过put和getIfPresent来进行元素访问了,例如:
// 赋值 for(int i=0; i<10000; i++) { lcache.put(String.valueOf(i), i); } // 查询 Integer value = lcache.getIfPresent("10");