golang 高性能无 GC 的缓存库 bigcache 是怎么实现的?

504次阅读  |  发布于8月以前

我们写代码的时候,经常会需要从数据库里读取一些数据,比如配置信息或者诸如每周热点商品之类的数据。

应用读取数据库如果这些数据既不经常变化,又需要频繁读取,那比起每次都去读数据库,更优的解决方案就是将它们放到应用的本地内存里,这样可以省下不少数据库 IO,性能嘎一下就上来了。

应用优先读缓存那么现在问题就来了,假设我要在某个服务应用里实现一个缓存组件去存各种类型的数据,该怎么实现这个组件呢?

从一个 map 说起

最简单的的方案就是使用 map,也就是字典,将需要保存的结构以 key-value 的形式,保存到内存中。比如系统配置,key 就叫 system_config,value 就是具体的配置内容。需要读取数据就用 v = m[key]来获取数据,需要写数据就执行m[key] = v.

单线程读写map这样看起来在单线程下是满足需求了。但如果我想在多个线程(协程)里并发读写这个缓存呢?那必然会发生竞态问题。这就需要加个读写锁了。读操作前后要加锁和解锁,也就是改成下面这样。

RLock()
v = m[key]
RUnLock()

写操作也需要相应修改:

Lock()
m[key] = v
UnLock()

多线程加锁读写map这在读写不频繁的场景下是完全 ok 的,如果没有什么性能要求,服务也没出现什么瓶颈,就算新来的实习生笑它很 low,你也要有自信,这就是个好用的缓存组件。架构就是这样,能快速满足需求,不出错就行。

但其实这个方案其实也有很大的问题,如果读写 qps 非常高,那么就会有一堆请求争抢同一个 map 锁,这对性能影响太大了。怎么解决呢?

将锁粒度变小

上面的方案中,最大的问题是所有读写请求,都抢的同一个锁,所以竞争才大,如果能将一部分请求改为抢 A 锁,另一部分请求改为抢 B 锁,那竞争就变小了。于是,我们可以将原来的一个 map,进行分片,变成多个 map,每个 map 都有自己的锁。发生读写操作时,第一步先对 key 进行 hash 分片,获取分片对应的锁后,再对分片 map 进行读写。只有落在同一个分片的请求才会发生锁争抢。也就是说 map 拆的越细,锁竞争就越小。

分片锁像这种将资源分割成多个独立的分片(segments/shard),每个段都有一个对应的锁来控制并发访问的控制机制, 其实就是所谓的分片(段)锁。看起来很完美,但其实还有问题。

gc 带来的问题

C/C++这类语言中,用户申请的内存需要由用户自己写代码去释放,一不小心忘了释放那就会发生内存泄露,给程序员带来了很大的心智负担。为了避免这样的问题,一般高级语言里都会自带 GC,也就是垃圾回收(Garbage Collection),说白了就是程序员只管申请内存,用完了系统会自动回收释放这些内存。比如 golang,它会每隔一段时间就去扫描哪些变量内存是可以被回收的。对于指针类型,golang 会先扫指针,再扫描指针指向的对象里的内容。map缓存里放的东西少还好说,缓存里的 key-value 一多,那就喜提多遍疯狂扫描,浪费,全是浪费,golang 你糊涂啊。

gc扫描指针对象那有没有办法可以减少这部分 gc 扫描 成本呢?有。golang 对于key 和 value 都不含指针的的map,会选择跳过,不进行 gc 扫描。所以我们需要想办法将 map 里的内容改成完全不含指针。原来 map 中放的 key-value,key和value 都可能是指针结构体。

对于 key

原来 key 是用的字符串,在 golang 中字符串本质上也是指针,于是我们将它进行 hash 操作,将字符串转为整形。信息经过 hash 操作后,有可能会丢掉部分信息,为了避免hash冲突时分不清具体是哪个 key-value,我们会将 key 放到 value 中一起处理,继续看下面。

对于 value

我们可以构造一个超大的 byte 数组 buf,将原来的 key value 等信息经过序列化,变成二进制01串。将它存放到这个超大 buf 中,并记录它在 超大 buf 中的位置 index。然后将这个位置 index 信息放到 map 的 value 位置上,也就是从 key-velue,变成了 key-index。

引入buf减少gc扫描同时为了防止 buf 数组变得过大,占用过多内存导致应用oom,还可以采用 ringbuf 的结构,写到尾部就重头开始写,如果 ringbuf 空间不够,还能对它进行扩容

ringbuf扩容

写操作

对于写操作,程序先将 key 进行 hash,得到所在分片 map,加锁。

然后解锁,结束流程。

写分片map流程

读操作

对于读操作,程序同样先对 key 进行 hash,得到分片 map。加锁,从分片 map 里拿到 value 对应的 index,拿着这个 index 到 ringbuf 数组中去获取到 value 的值,然后解锁,结束流程。

读分片map流程到这里,我们可以发现 map 的 key 和 value 都被改成了整形数字,也就省下了大量的 gc 扫描,大大提升了组件性能。其实这就是有名的高性能无 GC 的缓存库 github.com/allegro/bigcache 的实现原理。

bigcache 的使用

它的使用方法大概像下面这样。

package main

import (
    "fmt"
    "github.com/allegro/bigcache/v3"
)

func main() {
    // 设置 bigcache 配置参数
    cacheConfig := bigcache.Config{
        Shards: 1024, // 分片数量,提高并发性
    }

    // 初始化 bigcache
    cache, _ := bigcache.NewBigCache(cacheConfig)

    // 写缓存数据
    key := "欢迎关注"
    value := []byte("小白debug")
    cache.Set(key, value)

    // 读缓存数据
    entry, _ := cache.Get(key)

    fmt.Printf("Entry: %s\n", entry)
}

说白了就是 Get 方法读缓存数据,Set 方法写缓存数据,比较简单。现在,大概原理和使用方法我们都懂了,我们再来看下 bigcache 中,两个我认为挺巧妙的设计点。

ringbuf 中的数据格式

在前面的介绍中,我猜你心里可能有疑问,程序从 ringbuf 读写 value 的时候,ringbuf里面放的都是 01 二进制数组,程序怎么知道该读多少bit才算一个完整 value?bigcache 的解法非常值得学习,它重新定义了一个新的数据格式。

ringbuf内数据格式

当读取 ringbuf 时,我们会先读到 length,有了它,我们就能在 ringbuf 里拿到 header 和 data,header 里又含有 key 的长度,这样就能在 data 里将 key 和 value 完整区分开来。

很多网络传输框架中都会用到类似的方案,后面有机会跟大家细聊。

ringbuffer 的第 0 位

另外,还有个巧妙的设计是,在 bigcache 中, ringbuffer 的第 0 位并不用来存放任何数据,这样如果发现 分片 map 中得到数据的 index 为 0,就可以直接认为没有对应的缓存数据,那就不需要跑到 ringbuffer 里去捞一遍数据了,觉得学到了,记得在右下角给我点个赞。

ringbuf不使用第0位

bigcache 的缺点

bigcache 性能非常好,但也不是完全没有问题。比较明显的是,它读写数据时,用的都是byte数组,但我们平时写代码用的都是结构体,为了让结构体和 byte 数组互转,我们就需要用到序列化和反序列化,这些都是成本。

另外它的缓存淘汰策略也比较粗暴,用的是 FIFO,不支持 LRU 或 LFU 的淘汰策略。

总结

最后

不管是空间换时间还是时间换空间,适合、够用,就是最好的,架构总是在做折中。这就像我们做的 go/java 后端训练营,你不能要求它效果好,又要求它价格低。

Copyright© 2013-2020

All Rights Reserved 京ICP备2023019179号-8