先上文章目录,让大家可以对 缓存 这块知识先建立一个系统性的认知,然后我会按点逐个击破,读者们也可以按需阅读哈!
文章目录
维基百科对缓存的定义是:
In computing, a cache is a hardware or software component that stores data so that future requests for that data can be served faster; the data stored in a cache might be the result of an earlier computation or a copy of data stored elsewhere.
简而言之,缓存就是存储数据副本或计算结果的组件,以便后续可以更快地访问。
有缓存 VS 无缓存
在计算中,缓存是一个高速数据存储层,其中存储了数据的子集,且通常是短暂性存储,这样日后再次请求该数据时,直接读缓存会比重新计算结果或读数据存储更快。通过缓存,你可以高效地重用之前检索或计算的数据。
从定义上可以看出所谓缓存其实是其他数据的副本,使用缓存是为了更快地检索或计算数据。
1)硬件层面:如CPU中的高速缓存
CPU VS 内存
从上图可以看出CPU(蓝色)和内存(粉红色)之间存在巨大的性能差距。
在CPU访问数据和指令遵循计算机系统的局部性原理:
使用高速缓存可以弥补CPU和内存之间的性能差异,减少 CPU 浪费计算时间等待内存数据。
2)软件层面
3)产品层面
是否可以解决用户的痛点问题决定着用户会不会一开始尝试使用某款产品,是否有极致的用户体验影响用户会不会持续使用某款产品。在业务中使用缓存的目的就是通过扩大系统吞吐量、减少时延和响应时间来优化用户体验,适当的性能优化可以提升体验,增强用户粘性。
在现有的互联网应用中,缓存的使用是一种能够提升服务快速响应的关键技术,也是产品经理无暇顾及的非功能需求,需要在设计技术方案时对业务场景,具有一定的前瞻性评估后,决定在技术架构中是否需要引入缓存解决这种这种非功能需求。
缓存不是架构设计的必选项,也不是业务开发中的必要功能点,只有在业务出现性能瓶颈,进行优化性能的时候才需要考虑使用缓存来提升系统性能。并非所有的业务场景都适合用缓存,读多写少、不要求一致性、时效要求越低、访问频率越高、对最终一致性和数据丢失有一定程度的容忍的场景才适合使用缓存,缓存并不能解决所有的性能问题,倘若滥用缓存会带来额外的维护成本,使得系统架构更复杂更难以维护。
虽然缓存适用于各种各样的案例,但要充分利用缓存,需要进行一定的规划。所以在决定是否缓存一段数据时,请考虑以下问题:
另外把缓存当做存储来使用是一件极其致命的做法,这种错误的认识,将缓存引入系统的那一刻起就意味着已经让系统走上了危险的局面,只有对缓存的使用边界有深刻的理解,才能尽可能减少引入缓存带来的副作用。
其实缓存的思想随处可见,日常生活中人们都会有意无意地用到。比如你会把常看的书放到书桌上,这样你可以更快地拿到它们,而受限于桌面空间,不常看的书就要放在空间更大的书柜里了,等到要看的时候再从书柜里拿出来放到书桌上。这里的书桌其实就是一种缓存介质了。
对于程序员来说,缓存更是家常便饭了。有哪些程序员会用到缓存技术呢?
1)硬件开发工程师:比如CPU缓存、GPU缓存和数字信号处理器(DSP)缓存等。
2)软件开发工程师:
按照不同的维度,可以对缓存分门别类,如下图所示。
缓存分类
下面我着重按照 缓存所处链路节点的位置 来系统梳理出不同类型的缓存应用。
HTTP 协议的无状态性决定了它必须依靠客户端缓存来解决网络传输效率上的缺陷。由于每次请求都是独立的,服务端不保存此前请求的状态和资源,所以也不可避免地导致其携带有重复的数据,造成网络性能降低。HTTP 协议对此问题的解决方案便是客户端缓存。
常见的客户端缓存有如下几种:
页面缓存是指将静态页面获取页面中的部分元素缓存到本地,以便下次请求不需要重复资源文件,h5很好的支持的离线缓存的功能,具体实现可通过页面指定manifest文件,当浏览器访问一个带有manifest属性的文件时,会先从应用缓存中获取加载页面的资源文件,并通过检查机制处理缓存更新的问题。
APP可以将内容缓存到内存或者本地数据库中,例如在一些开源的图片库中都具备缓存的技术特性,当图片等资源文件从远程服务器获取后会进行缓存,以便下一次不再进行重复请求,并可以减少用户的流量费用。
客户端缓存是前端性能优化的一个重要方向,毕竟客户端是距离“用户”最近的地方,是一个可以充分挖掘优化潜力的地方。
浏览器缓存通常会专门开辟内存空间以存储资源副本,当用户后退或者返回上一步操作时可以通过浏览器缓存快速的获取数据,减少页面加载时间和带宽使用。在 HTTP 从 1.0 到 1.1,再到 2.0 版本的每次演进中,逐步形成了现在被称为“状态缓存”、“强制缓存”(许多资料中简称为“强缓存”)和“协商缓存”的 HTTP 缓存机制。在HTTP 1.1中通过引入e-tag标签并结合expire、cache-control两个特性能够很好的支持浏览器缓存。
下面我们用思维导图理解 强制缓存 和 协商缓存,请注意体会梳理思路!
浏览器缓存
对于Etag的补充说明:
HTTP 服务器可以根据自己的意愿来选择如何生成这个标识,比如 Apache 服务器的 Etag 值默认是对文件的索引节点(INode),大小和最后修改时间进行哈希计算后得到的。
Etag 是 HTTP 中一致性最强的缓存机制,比如,Last-Modified 标注的最后修改只能精确到秒级,如果某些文件在 1 秒钟以内,被修改多次的话,它将不能准确标注文件的修改时间;又或者如果某些文件会被定期生成,可能内容并没有任何变化,但 Last-Modified 却改变了,导致文件无法有效使用缓存,这些情况 Last-Modified 都有可能产生资源一致性问题,只能使用 Etag 解决。
Etag 却又是 HTTP 中性能最差的缓存机制,体现在每次请求时,服务端都必须对资源进行哈希计算,这比起简单获取一下修改时间,开销要大了很多。Etag 和 Last-Modified 是允许一起使用的,服务器会优先验证 Etag,在 Etag 一致的情况下,再去对比 Last-Modified,这是为了防止有一些 HTTP 服务器未将文件修改日期纳入哈希范围内。
扩展知识:内容协商机制
到这里为止,HTTP 的协商缓存机制已经能很好地处理通过 URL 获取单个资源的场景,为什么要强调“单个资源”呢?在 HTTP 协议的设计中,一个 URL 地址是有可能能够提供多份不同版本的资源,比如,一段文字的不同语言版本,一个文件的不同编码格式版本,一份数据的不同压缩方式版本,等等。因此针对请求的缓存机制,也必须能够提供对应的支持。为此,HTTP 协议设计了以 Accept(Accept、Accept-Language、Accept-Charset、Accept-Encoding)开头的一套请求 Header 和对应的以 Content-(Content-Language、Content-Type、Content-Encoding)开头的响应 Header,这些 Headers 被称为 HTTP 的内容协商机制。与之对应的,对于一个 URL 能够获取多个资源的场景中,缓存也同样也需要有明确的标识来获知根据什么内容来对同一个 URL 返回给用户正确的资源。这个就是 Vary Header 的作用,Vary 后面应该跟随一组其他 Header 的名字,比如:
1HTTP/1.1 200 OK
2Vary: Accept, User-Agent
3
以上响应的含义是应该根据 MIME 类型和浏览器类型来缓存资源,获取资源时也需要根据请求 Header 中对应的字段来筛选出适合的资源版本。
网络缓存位于客户端以及服务端中间,通过代理的方式解决数据请求的响应,降低数据请求的回源率。回源率又分为以下两种:
网络缓存常见的代理形式分为两种:web代理缓存、边缘缓存。
在介绍网络缓存之前我们先了解下前置知识----两种服务器代理方式:正向代理、反向代理。
正向代理其实就是:客户端通过代理服务器与源服务器进行非直接连接。客户端可以感知到代理服务器的存在,对源服务器透明(源服务器感知不到客户端的存在),如下图所示
正向代理
通信时客户端和代理服务器要设置好代理协议,比如Socks协议或者是HTTP协议(可以设置4.1节浏览器缓存中的HTTP Header)。
那正向代理有什么作用呢?
反向代理就是:客户端通过代理服务器与源服务器进行非直接连接。客户端只会得知反向代理的IP地址,而不知道在代理服务器后面的服务器集群的存在。如下图所示
反向代理
反向代理有什么作用呢?
介绍完2种服务器代理形式后,我们来说下两种网络缓存形式。
1)web代理缓存:web代理缓存通常是指正向代理,会将资源文件和热点数据放在代理服务器上,当新的请求到来时,如果在代理服务器上能获取数据,则不需要重复请求到应用服务器上。
2)边缘缓存:和正向代理一样,反向代理同样可以用于缓存,例如nginx就提供了缓存的功能。进一步,如果这些反向代理服务器能够做到和用户请求来自同一个网络,那么获取资源的速度进一步提升,这类的反向代理服务器可以称之为边缘缓存。常见的边缘缓存就是内容分发网络(Content Delivery Network),简称CDN。可以将图片等静态资源文件放到CDN上。
那什么CDN呢?
如果把某个互联网系统比喻为一家跨国企业,那内容分发网络就是它遍布世界各地的分销机构,如果现在有客户要买一块 CPU,那订机票飞到美国加州英特尔总部肯定是不合适的,到本地电脑城找个装机店铺才是普遍的做法,在此场景中,内容分发网络就相当于电脑城里的本地经销商。
那CDN的主要工作过程有哪些呢?主要包括路由解析、内容分发、[负载均衡] (干货文章,建议点击阅读)、CDN的利用场景。
一、路由解析
一次没有内容分发网络参与的DNS域名解析过程如下:
无论是使用浏览器抑或是在程序代码中访问某个网址域名,比如以www.wallbig.club.cn
为例,如果没有缓存的话,都会先经过 DNS 服务器的解析翻译,找到域名对应的 IP 地址才能开始通信,这项操作是操作系统自动完成的,一般不需要用户程序的介入。不过,DNS 服务器并不是一次性地将“www.wallbig.club.cn
”直接解析成 IP 地址,需要经历一个递归的过程。首先 DNS 会将域名还原为“www.wallbig.club.cn.
”,注意最后多了一个点“.
”,它是“.root
”的含义。早期的域名必须带有这个点才能被 DNS 正确解析,如今几乎所有的操作系统、DNS 服务器都可以自动补上结尾的点号,然后开始如下解析步骤:
cn
的权威服务器”的地址记录,然后通过“cn
的权威服务器”,得到“club.cn
的权威服务器”的地址记录,以此类推,最后找到能够解释www.wallbig.club.cn
的权威服务器地址。www.wallbig.club.cn
的权威服务器”,查询www.wallbig.club.cn
的地址记录,地址记录并不一定就是指 IP 地址,在 RFC 规范中有定义的地址记录类型已经多达数十种,比如 IPv4 下的 IP 地址为 A 记录,IPv6 下的 AAAA 记录、主机别名 CNAME 记录,等等。下面画个图,方便大家理解这个解析过程:
没有CDN参与的用户访问解析过程
前面提到过,每种记录类型中还可以包括多条记录,以一个域名下配置多条不同的 A 记录为例,此时权威服务器可以根据自己的策略来进行选择,典型的应用是智能线路:根据访问者所处的不同地区(比如华北、华南、东北)、不同服务商(比如电信、联通、移动)等因素来确定返回最合适的 A 记录,将访问者路由到最合适的数据中心,达到智能加速的目的。
那如果有CDN参与的话,路由解析的具体工作过程又是哪样的呢?
wallbig.club
”的服务器后,将服务器的 IP 地址在你的 CDN 服务商上注册为“源站”,注册后你会得到一个 CNAME,即本例中的“wallbig.club.cdn.dnsv1.com.
”。为了读者更生动地理解以上步骤,我画个时序图,建议和上面的图对比来看:
CDN路由解析过程
DNS 系统多级分流的设计使得 DNS 系统能够经受住全球网络流量不间断的冲击,但也并非全无缺点。典型的问题是响应速度,当极端情况(各级服务器均无缓存)下的域名解析可能导致每个域名都必须递归多次才能查询到结果,显著影响传输的响应速度。
专门有一种被称为“DNS 预取”(DNS Prefetching)的前端优化手段用来避免这类问题:如果网站后续要使用来自于其他域的资源,那就在网页加载时生成一个 link 请求,促使浏览器提前对该域名进行预解释,比如下面代码所示:
1<link rel="dns-prefetch" href="//domain.not-wallbig.club">
而另一种可能更严重的缺陷是 DNS 的分级查询意味着每一级都有可能受到中间人攻击的威胁,产生被劫持的风险。要攻陷位于递归链条顶层的(比如根域名服务器,cn 权威服务器)服务器和链路是非常困难的,它们都有很专业的安全防护措施。但很多位于递归链底层或者来自本地运营商的 Local DNS 服务器的安全防护则相对松懈,甚至不少地区的运营商自己就会主动进行劫持,专门返回一个错的 IP,通过在这个 IP 上代理用户请求,以便给特定类型的资源(主要是 HTML)注入广告,以此牟利。
为此,最近几年出现了另一种新的 DNS 工作模式:HTTPDNS(也称为 DNS over HTTPS,DoH)。它将原本的 DNS 解析服务开放为一个基于 HTTPS 协议的查询服务,替代基于 UDP 传输协议的 DNS 域名解析,通过程序代替操作系统直接从权威 DNS 或者可靠的 Local DNS 获取解析数据,从而绕过传统 Local DNS。这种做法的好处是完全免去了“中间商赚差价”的环节,不再惧怕底层的域名劫持,能够有效避免 Local DNS 不可靠导致的域名生效缓慢、来源 IP 不准确、产生的智能线路切换错误等问题。
二、内容分发
在 DNS 服务器的协助下,无论是对用户还是服务器,内容分发网络都可以是完全透明的,在两者都不知情的情况下,由 CDN 的缓存节点接管了用户向服务器发出的资源请求。后面随之而来的问题是缓存节点中必须有用户想要请求的资源副本,才可能代替源站来响应用户请求。这里面又包括了两个子问题:“如何获取源站资源”和“如何管理(更新)资源”。
CDN 获取源站资源的过程被称为“内容分发”,“内容分发网络”的名字正是由此而来,可见这是 CDN 的核心价值。目前主要有以下两种主流的内容分发方式:
对于“CDN 如何管理(更新)资源”这个问题,同样没有统一的标准可言,尽管在 HTTP 协议中,关于缓存的 Header 定义中确实是有对 CDN 这类共享缓存的一些指引性参数,比如“浏览器”小节HTTP header参数Cache-Control的 s-maxage,但是否要遵循,完全取决于 CDN 本身的实现策略。
现在,最常见的做法是超时被动失效与手工主动失效相结合。超时失效是指给予缓存资源一定的生存期,超过了生存期就在下次请求时重新被动回源一次。而手工失效是指 CDN 服务商一般会提供给程序调用来失效缓存的接口,在网站更新时,由持续集成的流水线自动调用该接口来实现缓存更新。
三、负载均衡
负载均衡就是以统一的接口对外提供服务,但构建和调度服务集群对用户保持透明。深入了解负载均衡强烈推荐看这篇干货:[老生常谈的负载均衡,你真的懂了吗?]
四、CDN的应用场景
服务端缓存主要是为了减少CPU/IO、数据库以及下游服务接口的压力,这也是实际编程中最常用的手段。
除减少数据库的压力外,缓存返回数据的响应速度比数据库要快。另外,尽可能不调用外部接口,因为外部接口无论 WebSocket、WebService,还是 HTTP,其响应速度都是不可控的。如果外部接口响应时间过长,也会影响自身性能。
服务端缓存大致分为以下几种:
缓存击穿是一个失效的热点Key被并发集中访问,导致请求全部打在数据库上。图如下
缓存击穿解决方案:
用堵塞队列来实现的话可以参考Golang官方库singleflight
3 . 热点数据由代码来手动管理,缓存击穿是仅针对热点数据被自动失效才引发的问题,对于这类数据,可以直接由开发者通过代码来有计划地完成更新、失效,避免由缓存策略来自动管理。
某个时刻热点数据出现大规模的缓存失效,大量的请求全部打到数据库,导致数据库瞬时压力过载从而拒绝服务甚至是宕机。
缓存雪崩
分析:造成缓存雪崩的关键在于在同一时间大规模的key失效。诱因可能是
解决方案:
在触发熔断机制后返回预先配置好的兜底数据,减少过多请求压倒DB导致服务不可用。
熔断检测+数据兜底
4 . 组件高可用:
对于redis这样的缓存组件,可以搭建Redis集群(集群模式或哨兵模式),提高Redis的可用性,尽量规避单点故障导致缓存雪崩。
redis哨兵模式
Redis
基于一个Master
主节点多Slave
从节点的模式和Redis
持久化机制,将一份数据保持在多个实例中,从而实现增加副本冗余量,又使用哨兵机制实现主备切换, 在master
故障时,自动检测,将某个slave
切换为master
,最终实现Redis
高可用
提高数据库的容灾能力,可以使用分库分表,读写分离的策略。
缓存穿透是指用户查询数据库没有的数据,缓存中自然也不会有。那先查缓存再查数据相当于进行了两次无效操作。大量的无效请求将给数据库带来极大的访问压力,甚至导致其过载拒绝服务。下图中红色箭头标出了每一次用户请求到来都会经过的两次无效查询。
缓存穿透
分析:造成缓存穿透的原因可能是
解决方案:
1)使用布隆过滤器高效判断key是否存在,流程如如下
布隆过滤器方案
虽然不能完全避免数据穿透的现象,但已经可以将99%的穿透查询给屏蔽在Redis层了,极大的降低了底层数据库的压力,减少了资源浪费(布隆过滤器用bitmap实现)。如果想拥有更高的空间利用率和更小的误判,替代的方案是使用布谷鸟过滤器。如果想了解这两种过滤器的相关细节,强烈推荐看这篇文章:[作为一名后台开发,你必须知道的两种过滤器]
由于布隆过滤器存在“误报”和“漏报”,而且实现也比较复杂,对于空数据查询其实还有一种简单粗暴的策略:
2)缓存空值,流程图如下:
image-20220228231926113
当碰到查询结果为空的key时,放一个空值到缓存中,下次再访问就知道此key是无效的,避免无效查询数据库。但这样花费额外的空间来存储空值。 2. 对于缓存污染:关键点是能识别出只访问一次或者访问次数很少的数据。然后使用淘汰策略去删除冷数据,下面以redis为例
缓存淘汰策略 | 解决缓存污染 |
---|---|
noeviction | 不能 |
volatile-ttl | 能 |
volatile-random | 不能 |
volatile-lru | 不能 |
volatile-lfu | 能 |
allkeys-random | 不能 |
allkeys-lru | 不能 |
allkeys-lfu | 能 |
缓存预热是指系统上线后,提前将热点数据加载到缓存系统。避免在用户请求的时候,先查询数据库,然后再将数据缓存的问题,在线上高并发访问时可以提高数据访问速度和减小数据库压力。
解决方案:
缓存降级是指当访问量剧增、服务出现问题(如响应时间慢或不响应)或非核心服务影响到核心流程的性能时,即使是有损部分其他服务,仍然需要保证主服务可用。可以将其他次要服务的数据进行缓存降级,从而提升主服务的稳定性。降级的目的是保证核心服务可用,即使是有损的。而且有些服务是无法降级的(如加入购物车、结算)。
以参考日志级别设置预案:
(1)一般:比如有些服务偶尔因为网络抖动或者服务正在上线而超时,可以自动降级;
(2)警告:有些服务在一段时间内成功率有波动(如在95~100%之间),可以自动降级或人工降级, 并发送告警;
(3)错误:比如可用率低于90%,或者数据库连接池被打爆了,或者访问量突然猛增到系统能承受的最大阀值,此时可以根据情况自动降级或者人工降级;
(4)严重错误:比如因为特殊原因数据错误了,此时需要紧急人工降级。
服务降级的目的,是为了防止Redis服务故障,导致数据库跟着一起发生雪崩问题。因此,对于不重要的缓存数据,可以采取服务降级策略,例如一个比较常见的做法就是,Redis出现问题,不去数据库查询,而是直接返回默认值给用户。
Cache-Aside是最常用的一种缓存更新模式,其逻辑如下:
Cache-Aside
注意,Cache-Aside更新操作是先更新数据库,成功后,让缓存失效。
如果是先删除缓存,然后再更新数据库,会有什么影响呢?
我们可以思考一下,假设有两个并发操作,一个是更新操作,另一个是查询操作,更新操作删除缓存后,查询操作没有命中缓存,先把老数据读出来后放到缓存中,然后更新操作更新了数据库。于是,在缓存中的数据还是老的数据,导致缓存中的数据是脏的,而且还一直这样脏下去了。
那么Cache-Aside是否会出现上面提到的问题呢?
我们可以脑补一下,假如有两个并发操作:查询和更新,首先,没有了删除cache数据的操作了,而是先更新了数据库中的数据,此时,缓存依然有效,所以,并发的查询操作拿的是没有更新的数据,但是,更新操作马上让缓存的失效了,后续的查询操作再把数据从数据库中拉出来。就不会出现后续的查询操作一直都在取老的数据的问题。
这是标准的design pattern,包括Facebook的论文《Scaling Memcache at Facebook》也使用了这个策略。为什么不是写完数据库后更新缓存?你可以看一下Quora上的这个问答《Why does Facebook use delete to remove the key-value pair in Memcached instead of updating the Memcached during write request to the backend?》,主要是怕两个并发的写操作导致脏数据。
那么,是不是Cache Aside这个就不会有并发问题了?不是的,比如,一个是读操作,但是没有命中缓存,然后就到数据库中取数据,此时来了一个写操作,写完数据库后,让缓存失效,然后,之前的那个读操作再把老的数据放进去,所以,会造成脏数据。
这种case理论上会出现,不过,实际上出现的概率可能非常低,因为这个条件需要发生在读缓存时缓存失效,而且并发着有一个写操作。而实际上数据库的写操作会比读操作慢得多,而且还要锁表,而读操作必需在写操作前进入数据库操作,而又要晚于写操作更新缓存,所有的这些条件都具备的概率基本并不大。
所以,这也就是Quora上的那个答案里说的,要么通过2PC或是Paxos协议保证一致性,要么就是拼命的降低并发时脏数据的概率,而Facebook使用了这个降低概率的玩法,因为2PC太慢,而Paxos太复杂。当然,最好还是为缓存设置上过期时间。
在上面的Cache Aside中,应用代码需要维护两个数据存储,一个是缓存(Cache),一个是数据库(Repository)。所以,应用程序代码比较复杂。而Read/Write Through是把更新数据库(Repository)的操作由缓存服务自己代理,对于应用层来说,就简单很多了。可以理解为,应用认为后端就是一个单一的存储,而存储自己维护自己的Cache。
Read-Through策略是当缓存失效时(过期或LRU换出),缓存服务自己从数据库加载丢失的数据,填充缓存并将其返回给应用程序。
read through
Cache-Aside 和 Read-Through策略都是延迟加载数据,也就是说,只有在第一次读取时才加载数据。
Read-Though和Cache-Aside的区别:
Write Through 套路和Read Through相仿,不过是在更新数据时发生。当有数据更新的时候,如果没有命中缓存,直接更新数据库,然后返回。如果命中了缓存,则更新缓存,然后再由Cache自己更新数据库(这是一个同步操作)。
write through
就其本身而言,Write-Through似乎没有太大作用,而且它会引入额外的写入延迟,因为数据首先写入缓存,然后写入主数据库。它一般和Read-Though配对使用,这样可以获得数据一致性保证而且免于应用程序和缓存失效、更新、集群管理等复杂的问题。
DynamoDB Accelerator (DAX) 是通读/直写缓存的一个很好的例子。它连接 DynamoDB 和你的应用程序。对 DynamoDB 的读取和写入可以通过 DAX 完成。
Write Behind也叫 Write Back。其实Linux文件系统的Page Cache算法用的也是这个,所以说底层的东西很多时候是相通。
Write Behind的思想是:在更新数据时,只更新缓存,不更新数据库,而我们的缓存会异步地批量更新数据库。
write behind caching
Write Behind的优势有:
事物总有两面性,Write Behind的不足有:
没有完美的方案,只有合适的方案。我们基本上不可能做出一个没有缺陷的设计,软件设计从来都是取舍Trade-Off。比如算法设计中的时间换空间、空间换时间,有时候软件的强一致性和高性能不可兼得,高可用和高性能会有冲突等。
缓存更新这个章节,我们都没有考虑缓存(Cache)和持久层(Repository)的整体事务的问题。比如,更新Cache成功,更新数据库失败了怎么吗?对于事务、分布式事务这个庞大的话题,大家如果有兴趣的话欢迎私信我,后续我再出几篇文章来分析、总结和归纳下。
3.1 写操作更新缓存(更新缓存:先更新数据库还是缓存?)
A线程更新数据库后还没更新缓存时,B线程覆盖掉A的数据库值,然后A后写入缓存覆盖掉B的缓存值,导致数据不一致
更新缓存成功,但是更新数据库失败导致数据不一致
3.2 写操作删除缓存(删除缓存:先删还是后删缓存?)
写入数据库未删缓存之前的缓存命中会是旧值(数据不一致时间很短)
A线程的缓存未命中读取数据库旧值后B线程写入数据库并删除缓存(这里没有删除掉缓存,因为缓存不存在,如果存在A线程不可能缓存未命中),之后A线程才把旧值写入缓存导致数据不一致(概率小:读操作必需在写操作前进入数据库操作,而又要晚于写操作更新缓存,但是读操作时间比写操作时间快很多)
A线程删掉缓存后未写入数据库之前,B线程读取数据旧值,A线程写入数据后,B更新缓存,导致数据不一致性
解决办法:延时双删,延时双删策略会在写库前后删除缓存中的数据,并且给缓存数据设置合理的过期时间,从而可以保证最终一致性。写流程具体如下:
延时双删
这里为什么会休眠一段时间呢?这里主要是防止:在写请求删除缓存但还未成功写入数据库后,读请求可能将旧值加载到缓存。
读流程:先读缓存,当缓存未命中,再从数据库中读取,然后再写入缓存。
延时双删虽然解决了上述讨论的缓存对数据库不一致的问题,但这种策略存在以下问题:
休眠时间需要业务方设置(难点在时间怎么设置),并且要大于一次读操作时间,才能在旧值加载到就缓存之后二次顺利删掉缓存。
缓存过期是个很复杂的问题。没有解决这一问题的“灵丹妙药”,但有几个简单的策略可供参考:
有关缓存过期和俄罗斯套娃缓存的详细介绍,请参阅 Basecamp Signal vs Noise 博客文章“俄罗斯套娃”缓存的性能影响。
还可以使用另一种模式以在下游服务不可用时一定程度提高服务的弹性,也就是使用两个 TTL:一个软 TTL 和一个硬 TTL。客户端将尝试根据软 TTL 刷新缓存项,但如果下游服务不可用或因其他原因未响应请求,则将继续使用现有的缓存数据,直至达到硬 TTL
缓存回收策略可以分为:
缓存淘汰算法有:
缓存淘汰策略直接影响缓存的命中率,没有一种策略是完美的、能够满足全部系统所需的。不过,随着淘汰算法的发展,近年来的确出现了许多相对性能要更好的,也更为复杂的新算法。以 LFU 分支为例,针对它存在的两个问题,近年来提出的 TinyLFU 和 W-TinyLFU 算法就往往会有更好的效果。
另外还有两种高级淘汰策略ARC(Adaptive Replacement Cache)、LIRS(Low Inter-Reference Recency Set),大家有兴趣可以再深入阅读,对其他缓存淘汰策略感兴趣的读者也可以参考维基百科中对Cache Replacement Policies的介绍。
相比起缓存数据在进程内存中读写的速度,一旦涉及网络访问,由网络传输、数据复制、序列化和反序列化等操作所导致的延迟要比内存访问高得多,所以对分布式缓存来说,处理与网络有相关的操作是对吞吐量影响更大的因素,往往也是比淘汰策略、扩展功能更重要的关注点,这决定了尽管也有 Ehcache、Infinispan 这类能同时支持分布式部署和进程内嵌部署的缓存方案,但通常进程内缓存和分布式缓存选型时会有完全不同的候选对象及考察点。我们决定使用哪种分布式缓存前,首先必须确认自己需求是什么?
分布式缓存与进程内缓存各有所长,也有各有局限,它们是互补而非竞争的关系,如有需要,完全可以同时把进程内缓存和分布式缓存互相搭配,构成透明多级缓存(Transparent Multilevel Cache,TMC),如图 4-14 所示。先不考虑“透明”的话,多级缓存是很好理解的,使用进程内缓存做一级缓存,分布式缓存做二级缓存,如果能在一级缓存中查询到结果就直接返回,否则便到二级缓存中去查询,再将二级缓存中的结果回填到一级缓存,以后再访问该数据就没有网络请求了。如果二级缓存也查询不到,就发起对最终数据源的查询,将结果回填到一、二级缓存中去。
多级缓存
尽管多级缓存结合了进程内缓存和分布式缓存的优点,但它的代码侵入性较大,需要由开发者承担多次查询、多次回填的工作,也不便于管理,如超时、刷新等策略都要设置多遍,数据更新更是麻烦,很容易会出现各个节点的一级缓存、以及二级缓存里数据互相不一致的问题。必须“透明”地解决以上问题,多级缓存才具有实用的价值。一种常见的设计原则是变更以分布式缓存中的数据为准,访问以进程内缓存的数据优先。大致做法是当数据发生变动时,在集群内发送推送通知(简单点的话可采用 Redis 的 PUB/SUB,求严谨的话引入 ZooKeeper 或 Etcd 来处理),让各个节点的一级缓存自动失效掉相应数据。当访问缓存时,提供统一封装好的一、二级缓存联合查询接口,接口外部是只查询一次,接口内部自动实现优先查询一级缓存,未获取到数据再自动查询二级缓存的逻辑。
附加解释下CAP定理:CAP是分布式计算领域所公认的著名定理。其描述了一个分布式的系统中,涉及共享数据问题时,以下三个特性最多只能同时满足其中两个:
在进行缓存结构设计的时候,需要考虑的点有很多:
1)对缓存带来的价值持怀疑态度:从成本、延迟和可用性等方面来评估引入缓存的合理性,并仔细评估引入缓存带来的额外风险和收益。
2)业务流量量级评估:对于低并发低流量的应用而言,引入缓存并不会带来性能的显著提升,反而会带来应用的复杂度以及极高的运维成本。也不是任何数据都需要使用缓存,比如图片视频等文件使用分布式文件系统更合适而不是缓存。因此,在引入缓存前,需要对当前业务的流量进行评估,在高并发大流量的业务场景中引入缓存相对而言收益会更高;
3)缓存组件选型:缓存应用有很多如Redis、Memcached以及tair等等,针对每一种分布式缓存应用的优缺点以及适用范围、内存效率、运维成本甚至团队开发人员的知识结构都需要了解,才能做好技术选型;
4)缓存相关指标评估:在引入缓存前,需要着重评估value大小、峰值QPS、缓存内存空间、缓存命中率、过期时间、过期淘汰策略、读写更新策略、key值分布路由策略、数据一致性方案等多个因素,要做到心中有数;
5)缓存高可用架构:分布式缓存要高可用,比如缓存的集群设计、主从同步方案的设计等等,只有缓存足够可靠,才能服务于业务系统,为业务带来价值;
6)完善的监控平台:当缓存投入生产环境后,需要有一套监控系统能够显式的观测缓存系统的运行情况,才能更早的发现问题,同时对于预估不足的非预期热点数据,也需要热点发现系统去解决非预期的热点数据缓存问题。
7)缓存最近访问原则:将缓存数据放在离用户最近的地方,无疑会极大的提升响应的速度,这也是多级缓存设计的核心思想。
8)考虑缓存数据的安全问题。包括加密、与外部缓存队列通信时的传输安全性以及缓存投毒攻击和侧信道攻击的影响。
Copyright© 2013-2020
All Rights Reserved 京ICP备2023019179号-8