关于服务器:解析分布式系统的缓存设计

10次阅读

共计 12840 个字符,预计需要花费 33 分钟才能阅读完成。

一、缓存简介

1.1 什么是缓存

缓存就是数据交换的缓冲区。缓存的实质是一个内存 Hash。缓存是一种利用空间换工夫的设计,其指标就是更快、更近:极大的进步。

  • 将数据写入 / 读取速度更快的存储(设施);
  • 将数据缓存到离利用最近的地位;
  • 将数据缓存到离用户最近的地位。

缓存是用于存储数据的硬件或软件的组成部分,以使得后续更快拜访相应的数据。缓存中的数据可能是提前计算好的后果、数据的正本等。典型的利用场景:有 cpu cache, 磁盘 cache 等。本文中提及到缓存次要是指互联网利用中所应用的缓存组件。

缓存命中率是缓存的重要度量指标,命中率越高越好。

缓存命中率 = 从缓存中读取次数 / 总读取次数

1.2 何时须要缓存

引入缓存,会减少零碎的复杂度。所以,引入缓存前,须要先衡量是否值得,考量点如下:

  • CPU 开销 – 如果利用某个计算须要耗费大量 CPU,能够思考缓存其计算结果。典型场景:简单的、频繁调用的正则计算;分布式计算中间状态等。
  • IO 开销 – 如果数据库连接池比拟忙碌,能够思考缓存其查问后果。

在数据层引入缓存,有以下几个益处:

  • 晋升数据读取速度。
  • 晋升零碎扩大能力,通过扩大缓存,晋升零碎承载能力。
  • 升高存储老本,Cache+DB 的形式能够承当原有须要多台 DB 能力承当的申请量,节俭机器老本。

1.3 缓存的基本原理

依据业务场景,通常缓存有以下几种应用形式:

  • 懒汉式(读时触发):先查问 DB 里的数据, 而后把相干的数据写入 Cache。
  • 饥饿式(写时触发):写入 DB 后, 而后把相干的数据也写入 Cache。
  • 定期刷新:适宜周期性的跑数据的工作,或者列表型的数据,而且不要求相对实时性。

1.4 缓存淘汰策略

缓存淘汰的类型:

1)基于空间:设置缓存空间大小。

2)基于容量:设置缓存存储记录数。

3)基于工夫

  • TTL(Time To Live,即存活期)缓存数据从创立到过期的工夫。
  • TTI(Time To Idle,即闲暇期)缓存数据多久没被拜访的工夫。

缓存淘汰算法:

1)FIFO:先进先出。在这种淘汰算法中,先进入缓存的会先被淘汰。这种堪称是最简略的了,然而会导致咱们命中率很低。试想一下咱们如果有个拜访频率很高的数据是所有数据第一个拜访的,而那些不是很高的是前面再拜访的,那这样就会把咱们的首个数据然而他的拜访频率很高给挤出。

2)LRU:最近起码应用算法。在这种算法中防止了下面的问题,每次拜访数据都会将其放在咱们的队尾,如果须要淘汰数据,就只须要淘汰队首即可。然而这个仍然有个问题,如果有个数据在 1 个小时的前 59 分钟拜访了 1 万次(可见这是个热点数据), 再后一分钟没有拜访这个数据,然而有其余的数据拜访,就导致了咱们这个热点数据被淘汰。

3)LFU:最近起码频率应用。在这种算法中又对下面进行了优化,利用额定的空间记录每个数据的应用频率,而后选出频率最低进行淘汰。这样就防止了 LRU 不能解决时间段的问题。

这三种缓存淘汰算法,实现复杂度一个比一个高,同样的命中率也是一个比一个好。而咱们一般来说抉择的计划居中即可,即实现老本不是太高,而命中率也还行的 LRU。

二、缓存的分类

缓存从部署角度,能够分为客户端缓存和服务端缓存。

客户端缓存

  • HTTP 缓存
  • 浏览器缓存
  • APP 缓存(1、Android  2、IOS)

服务端缓存

  • CDN 缓存:寄存 HTML、CSS、JS 等动态资源。
  • 反向代理缓存:动静拆散,只缓存用户申请的动态资源。
  • 数据库缓存:数据库(如 MySQL)本身个别也有缓存,但因为命中率和更新频率问题,不举荐应用。
  • 过程内缓存:缓存利用字典等罕用数据。
  • 分布式缓存:缓存数据库中的热点数据。

其中,CDN 缓存、反向代理缓存、数据库缓存个别由专职人员保护(运维、DBA)。后端开发个别聚焦于过程内缓存、分布式缓存。

2.1 HTTP 缓存

2.2 CDN 缓存

CDN 将数据缓存到离用户物理间隔最近的服务器,使得用户能够就近获取申请内容。CDN 个别缓存动态资源文件(页面,脚本,图片,视频,文件等)。

国内网络异样简单,跨运营商的网络拜访会很慢。为了解决跨运营商或各地用户拜访问题,能够在重要的城市,部署 CDN 利用。使用户就近获取所需内容,升高网络拥塞,进步用户拜访响应速度和命中率。

图片援用自:Why use a CDN

2.1.1 CDN 原理

CDN 的基本原理是宽泛采纳各种缓存服务器,将这些缓存服务器散布到用户拜访绝对集中的地区或网络中,在用户拜访网站时,利用全局负载技术将用户的拜访指向间隔最近的工作失常的缓存服务器上,由缓存服务器间接响应用户申请。

1)未部署 CDN 利用前的网络门路:

  • 申请:本机网络(局域网)=> 运营商网络 =\> 应用服务器机房
  • 响应:应用服务器机房 => 运营商网络 =\> 本机网络(局域网)

在不思考简单网络的状况下,从申请到响应须要通过 3 个节点,6 个步骤实现一次用户拜访操作。

2)部署 CDN 利用后网络门路:

  • 申请:本机网络(局域网)=\> 运营商网络
  • 响应:运营商网络 =\> 本机网络(局域网)

在不思考简单网络的状况下,从申请到响应须要通过 2 个节点,2 个步骤实现一次用户拜访操作。与不部署 CDN 服务相比,缩小了 1 个节点,4 个步骤的拜访。极大的进步了零碎的响应速度。

2.1.2 CDN 特点

长处

  • 本地 Cache 减速:晋升访问速度,尤其含有大量图片和动态页面站点;
  • 实现跨运营商的网络减速:打消了不同运营商之间互联的瓶颈造成的影响,实现了跨运营商的网络减速,保障不同网络中的用户都能失去良好的拜访品质;
  • 近程减速:近程拜访用户依据 DNS 负载平衡技术智能主动抉择 Cache 服务器,抉择最快的 Cache 服务器,放慢近程拜访的速度;
  • 带宽优化:主动生成服务器的近程 Mirror(镜像)cache 服务器,近程用户拜访时从 cache 服务器上读取数据,缩小近程拜访的带宽、分担网络流量、加重原站点 WEB 服务器负载等性能。
  • 集群抗攻打:宽泛散布的 CDN 节点加上节点之间的智能冗余机制,能够无效地预防黑客入侵以及升高各种 D.D.o.S 攻打对网站的影响,同时保障较好的服务质量。

毛病

  • 不合适缓存动静资源

解决方案:次要缓存动态资源,动静资源建设多级缓存或准实时同步;

  • 存在数据的一致性问题

1. 解决方案(次要是在性能和数据一致性二者间寻找一个均衡)。

2. 设置缓存生效工夫(1 个小时,过期后同步数据)。

3. 针对资源设置版本号。

2.2 反向代理缓存

反向代理(Reverse Proxy)形式是指以代理服务器来承受 internet 上的连贯申请,而后将申请转发给外部网络上的服务器,并将从服务器上失去的后果返回给 internet 上申请连贯的客户端,此时代理服务器对外就体现为一个反向代理服务器。

2.2.1 反向代理缓存原理

反向代理位于应用服务器同一网络,解决所有对 WEB 服务器的申请。反向代理缓存的原理:

  • 如果用户申请的页面在代理服务器上有缓存的话,代理服务器间接将缓存内容发送给用户。
  • 如果没有缓存则先向 WEB 服务器发出请求,取回数据,本地缓存后再发送给用户。

这种形式通过升高向 WEB 服务器的申请数,从而升高了 WEB 服务器的负载。

反向代理缓存个别针对的是动态资源,而将动静资源申请转发到应用服务器解决。罕用的缓存应用服务器有 Varnish,Ngnix,Squid。

2.2.2 反向代理缓存比拟

罕用的代理缓存有 Varnish,Squid,Ngnix,简略比拟如下:

  • Varnish 和 Squid 是业余的 cache 服务,Ngnix 须要第三方模块反对;
  • Varnish 采纳内存型缓存,防止了频繁在内存、磁盘中交换文件,性能比 Squid 高;
  • Varnish 因为是内存 cache,所以对小文件如 css、js、小图片的反对很棒,后端的长久化缓存能够采纳的是 Squid 或 ATS;
  • Squid 性能全而大,适宜于各种动态的文件缓存,个别会在前端挂一个 HAProxy 或 Ngnix 做负载平衡跑多个实例;
  • Nginx 采纳第三方模块 ncache 做的缓冲,性能根本达到 Varnish,个别作为反向代理应用,能够实现简略的缓存。

三、过程内缓存

过程内缓存是指利用外部的缓存,规范的分布式系统,个别有多级缓存形成。本地缓存是离利用最近的缓存,个别能够将数据缓存到硬盘或内存。

  • 硬盘缓存:将数据缓存到硬盘中,读取时从硬盘读取。原理是间接读取本机文件,缩小了网络传输耗费,比通过网络读取数据库速度更快。能够利用在对速度要求不是很高,但须要大量缓存存储的场景。
  • 内存缓存:间接将数据存储到本机内存中,通过程序间接保护缓存对象,是访问速度最快的形式。

常见的本地缓存实现计划:HashMap、Guava Cache、Caffeine、Ehcache。

3.1 ConcurrentHashMap

最简略的过程内缓存能够通过 JDK 自带的 HashMap 或 ConcurrentHashMap 实现。

  • 实用场景:不须要淘汰的缓存数据。
  • 毛病:无奈进行缓存淘汰,内存会无限度的增长。

3.2 LRUHashMap

能够通过继承 LinkedHashMap 来实现一个简略的 LRUHashMap。重写 removeEldestEntry 办法,即可实现一个简略的最近起码应用算法。

毛病:

  • 锁竞争重大,性能比拟低。
  • 不反对过期工夫。
  • 不反对主动刷新。

3.3  Guava Cache

解决了 LRUHashMap 中的几个毛病。Guava Cache 采纳了相似 ConcurrentHashMap 的思维,分段加锁,缩小锁竞争。

Guava Cache 对于过期的 Entry 并没有马上过期(也就是并没有后盾线程始终在扫),而是通过进行读写操作的时候进行过期解决,这样做的益处是防止后盾线程扫描的时候进行全局加锁。间接通过查问,判断其是否满足刷新条件,进行刷新。

3.4  Caffeine

Caffeine 实现了 W-TinyLFU(LFU + LRU 算法的变种),其命中率和读写吞吐量大大优于 Guava Cache。其实现原理较简单,能够参考你应该晓得的缓存进化史。

3.5 Ehcache

EhCache 是一个纯 Java 的过程内缓存框架,具备疾速、精干等特点,是 Hibernate 中默认的 CacheProvider。

长处

  • 疾速、简略;
  • 反对多种缓存策略:LRU、LFU、FIFO 淘汰算法;
  • 缓存数据有两级:内存和磁盘,因而无需放心容量问题;
  • 缓存数据会在虚拟机重启的过程中写入磁盘;
  • 能够通过 RMI、可插入 API 等形式进行分布式缓存;
  • 具备缓存和缓存管理器的侦听接口;
  • 反对多缓存管理器实例,以及一个实例的多个缓存区域;
  • 提供 Hibernate 的缓存实现。

毛病

  • 应用磁盘 Cache 的时候十分占用磁盘空间;
  • 不保证数据的平安;
  • 尽管反对分布式缓存,但效率不高(通过组播形式,在不同节点之间同步数据)。

3.6 过程内缓存比照

罕用过程内缓存技术比照:

  • ConcurrentHashMap:比拟适宜缓存比拟固定不变的元素,且缓存的数量较小的。尽管从下面表格中比起来有点逊色,然而其因为是 JDK 自带的类,在各种框架中仍然有大量的应用,比方咱们能够用来缓存咱们反射的 Method,Field 等等;也能够缓存一些链接,避免其反复建设。在 Caffeine 中也是应用的 ConcurrentHashMap 来存储元素。
  • LRUMap:如果不想引入第三方包,又想应用淘汰算法淘汰数据,能够应用这个。
  • Ehcache:因为其 jar 包很大,较重量级。对于须要长久化和集群的一些性能的,能够抉择 Ehcache。须要留神的是,尽管 Ehcache 也反对分布式缓存,然而因为其节点间通信形式为 rmi,体现不如 Redis,所以个别不倡议用它来作为分布式缓存。
  • Guava Cache:Guava 这个 jar 包在很多 Java 应用程序中都有大量的引入,所以很多时候其实是间接用就好了,并且其自身是轻量级的而且性能较为丰盛,在不理解 Caffeine 的状况下能够抉择 Guava Cache。
  • Caffeine:其在命中率,读写性能上都比 Guava Cache 好很多,并且其 API 和 Guava cache 基本一致,甚至会多一点。在实在环境中应用 Caffeine,获得过不错的成果。

总结一下:如果不须要淘汰算法则抉择 ConcurrentHashMap,如果须要淘汰算法和一些丰盛的 API,举荐抉择。

四、分布式缓存

分布式缓存解决了过程内缓存最大的问题:如果利用是分布式系统,节点之间无奈共享彼此的过程内缓存。分布式缓存的利用场景:

  • 缓存通过简单计算失去的数据。
  • 缓存零碎中频繁拜访的热点数据,加重数据库压力。

不同分布式缓存的实现原理往往有比拟大的差别。本文次要针对 Memcached 和 Redis 进行阐明。

4.1 Memcached

Memcached 是一个高性能,分布式内存对象缓存零碎,通过在内存里保护一个对立的微小的 Hash 表,它可能用来存储各种格局的数据,包含图像、视频、文件以及数据库检索的后果等。

简略的说就是:将数据缓存到内存中,而后从内存中读取,从而大大提高读取速度。

4.1.1 Memcached 个性

  • 应用物理内存作为缓存区,可独立运行在服务器上。每个过程最大 2G,如果想缓存更多的数据,能够开拓更多的 Memcached 过程(不同端口)或者应用分布式 Memcached 进行缓存,将数据缓存到不同的物理机或者虚拟机上。
  • 应用 key-value 的形式来存储数据。这是一种单索引的结构化数据组织模式,可使数据项查问工夫复杂度为 O(1)。
  • 协定简略,基于文本行的协定。间接通过 telnet 在 Memcached 服务器上可进行存取数据操作,简略,不便多种缓存参考此协定;
  • 基于 libevent 高性能通信。Libevent 是一套利用 C 开发的程序库,它将 BSD 零碎的 kqueue,Linux 零碎的 epoll 等事件处理性能封装成一个接口,与传统的 select 相比,进步了性能。
  • 分布式能力取决于 Memcached 客户端,服务器之间互不通信。各个 Memcached 服务器之间互不通信,各自独立存取数据,不共享任何信息。服务器并不具备分布式性能,分布式部署取决于 Memcached 客户端。
  • 采纳 LRU 缓存淘汰策略。在 Memcached 内存储数据项时,能够指定它在缓存的生效工夫,默认为永恒。当 Memcached 服务器用完调配的内时,生效的数据被首先替换,而后也是最近未应用的数据。在 LRU 中,Memcached 应用的是一种 Lazy Expiration 策略,本人不会监控存入的 key/vlue 对是否过期,而是在获取 key 值时查看记录的工夫戳,查看 key/value 对空间是否过期,这样可减轻服务器的负载。
  • 内置了一套高效的内存治理算法。这套内存管理效率很高,而且不会造成内存碎片,然而它最大的毛病就是会导致空间节约。当内存满后,通过 LRU 算法主动删除不应用的缓存。
  • 不反对长久化。Memcached 没有思考数据的容灾问题,重启服务,所有数据会失落。

4.1.2 Memcached 工作原理

1)内存治理

Memcached 利用 slab allocation 机制来调配和治理内存,它依照预先规定的大小,将调配的内存宰割成特定长度的内存块,再把尺寸雷同的内存块分成组,数据在寄存时,依据键值 大小去匹配 slab 大小,找就近的 slab 寄存,所以存在空间节约景象。

这套内存管理效率很高,而且不会造成内存碎片,然而它最大的毛病就是会导致空间节约。

2)缓存淘汰策略

Memcached 的缓存淘汰策略是 LRU + 到期生效策略。

当你在 Memcached 内存储数据项时,你有可能会指定它在缓存的生效工夫,默认为永恒。当 Memcached 服务器用完调配的内时,生效的数据被首先替换,而后是最近未应用的数据。

在 LRU 中,Memcached 应用的是一种 Lazy Expiration 策略:Memcached 不会监控存入的 key/vlue 对是否过期,而是在获取 key 值时查看记录的工夫戳,查看 key/value 对空间是否过期,这样可减轻服务器的负载。

3)分区

Memcached 服务器之间彼此不通信,它的分布式能力是依赖客户端来实现。具体来说,就是在客户端实现一种算法,依据 key 来计算出数据应该向哪个服务器节点读 / 写。

而这种选取集群节点的算法常见的有三种:

  • 哈希取余算法:应用公式:Hash(key)% N 计算出 哈希值 来决定数据映射到哪一个节点。
  • 一致性哈希算法:能够很好的解决 稳定性问题,能够将所有的 存储节点 排列在 首尾相接 的 Hash 环上,每个 key 在计算 Hash 后会 顺时针 找到 临接 的 存储节点 寄存。而当有节点 退出 或 退出 时,仅影响该节点在 Hash 环上 顺时针相邻 的 后续节点。
  • 虚构 Hash 槽算法:应用 分散度良好 的 哈希函数 把所有数据 映射 到一个 固定范畴 的 整数汇合 中,整数定义为 槽(slot),这个范畴个别 远远大于 节点数。槽 是集群内 数据管理 和 迁徙 的 根本单位。采纳 大范畴槽 的次要目标是为了不便 数据拆分 和 集群扩大。每个节点会负责 肯定数量的槽。

4.2 Redis

Redis 是一个开源(BSD 许可)的,基于内存的,多数据结构存储系统。能够用作数据库、缓存和消息中间件。

Redis 还能够应用客户端分片来扩大写性能。内置了 复制(replication),LUA 脚本(Lua scripting),LRU 驱动事件(LRU eviction),事务(transactions)和不同级别的 磁盘长久化(persistence),并通过 Redis 哨兵(Sentinel)和主动分区(Cluster)提供高可用性(high availability)。

4.2.1 Redis 个性

  • 反对多种数据类型 – string、Hash、list、set、sorted set。
  • 反对多种数据淘汰策略;

volatile-lru:从已设置过期工夫的数据集中筛选最近起码应用的数据淘汰;

volatile-ttl :从已设置过期工夫的数据集中筛选将要过期的数据淘汰;

volatile-random:从已设置过期工夫的数据集中任意抉择数据淘汰;

allkeys-lru:从所有数据集中筛选最近起码应用的数据淘汰;

allkeys-random:从所有数据集中任意抉择数据进行淘汰;

noeviction:禁止驱赶数据。

  • 提供两种长久化形式 – RDB 和 AOF。
  • 通过 Redis cluster 提供集群模式。

4.2.2 Redis 原理

1)缓存淘汰

Redis 有两种数据淘汰实现;

  • 消极形式:拜访 Redis key 时,如果发现它曾经生效,则删除它
  • 踊跃形式:周期性从设置了生效工夫的 key 中,依据淘汰策略,抉择一部分生效的 key 进行删除。

2)分区

  • Redis Cluster 集群蕴含 16384 个虚构 Hash 槽,它通过一个高效的算法来计算 key 属于哪个 Hash 槽。
  • Redis Cluster 反对申请散发 – 节点在接到一个命令申请时,会先检测这个命令申请要解决的键所在的槽是否由本人负责,如果不是的话,节点将向客户端返回一个 MOVED 谬误,MOVED 谬误携带的信息能够指引客户端将申请重定向至正在负责相干槽的节点。

3)主从复制

  • Redis 2.8 后反对异步复制。它有两种模式:

残缺重同步(full resychronization)– 用于首次复制。执行步骤与 SYNC 命令基本一致。

局部重同步(partial resychronization)– 用于断线后反复制。如果条件容许,主服务器能够将主从服务器连贯断开期间执行的写命令发送给从服务器,从服务器只需接管并执行这些写命令,即可将主从服务器的数据库状态保持一致。

  • 集群中每个节点都会定期向集群中的其余节点发送 PING 音讯,以此来检测对方是否在线。
  • 如果一个主节点被认为下线,则在其从节点中,依据 Raft 算法,选举出一个节点,降级为主节点。

4)数据一致性

  • Redis 不保障强一致性,因为这会使得集群性能大大降低。
  • Redis 是通过异步复制来实现最终一致性。

4.3  分布式缓存比照

不同的分布式缓存性能个性和实现原理方面有很大的差别,因而他们所适应的场景也有所不同。

这里选取三个比拟闻名的分布式缓存(MemCache,Redis,Tair)来作为比拟:

  • MemCache:只适宜基于内存的缓存框架;且不反对数据长久化和容灾。
  • Redis:反对丰盛的数据结构,读写性能很高,然而数据全内存,必须要思考资源老本,反对长久化。
  • Tair:反对丰盛的数据结构,读写性能较高,局部类型比较慢,实践上容量能够有限裁减。

总结:如果服务对提早比拟敏感,Map/Set 数据也比拟多的话,比拟适宜 Redis。如果服务须要放入缓存量的数据很大,对提早又不是特地敏感的话,那就能够抉择 Memcached。

五、多级缓存

5.1 整体缓存框架

通常,一个大型软件系统的缓存采纳多级缓存计划:

申请过程:

  • 浏览器向客户端发动申请,如果 CDN 有缓存则间接返回;
  • 如果 CDN 无缓存,则拜访反向代理服务器;
  • 如果反向代理服务器有缓存则间接返回;
  • 如果反向代理服务器无缓存或动静申请,则拜访应用服务器;
  • 应用服务器拜访过程内缓存;如果有缓存,则返回代理服务器,并缓存数据(动静申请不缓存);
  • 如果过程内缓存无数据,则读取分布式缓存;并返回应用服务器;应用服务器将数据缓存到本地缓存(局部);
  • 如果分布式缓存无数据,则应用程序读取数据库数据,并放入分布式缓存;

5.2 应用过程内缓存

如果应用服务是单点利用,那么过程内缓存当然是缓存的首选计划。对于过程内缓存,其原本受限于内存的大小的限度,以及过程缓存更新后其余缓存无奈得悉,所以一般来说过程缓存实用于:

  • 数据量不是很大且更新频率较低的数据。
  • 如果更新频繁的数据,也想应用过程内缓存,那么能够将其过期工夫设置为较短的工夫,或者设置较短的主动刷新工夫。

这种计划存在以下问题:

  • 如果应用服务是分布式系统,利用节点之间无奈共享缓存,存在数据不统一问题。
  • 因为过程内缓存受限于内存大小的限度,所以缓存不能有限扩大。

5.3 应用分布式缓存

如果应用服务是分布式系统,那么最简略的缓存计划就是间接应用分布式缓存。其利用场景如图所示:

Redis 用来存储热点数据,如果缓存不命中,则去查询数据库,并更新缓存。这种计划存在以下问题:

  • 缓存服务如果挂了,这时利用只能拜访数据库,容易造成缓存雪崩。
  • 拜访分布式缓存服务会有肯定的 I/O 以及序列化反序列化的开销,尽管性能很高,然而其究竟没有在内存中查问快。

5.4 应用多级缓存

单纯应用过程内缓存和分布式缓存都存在各自的有余。如果须要更高的性能以及更好的可用性,咱们能够将缓存设计为多级构造。将最热的数据应用过程内缓存存储在内存中,进一步晋升访问速度。

这个设计思路在计算机系统中也存在,比方 CPU 应用 L1、L2、L3 多级缓存,用来缩小对内存的间接拜访,从而放慢访问速度。一般来说,多级缓存架构应用二级缓存已能够满足大部分业务需要,过多的分级会减少零碎的复杂度以及保护的老本。因而,多级缓存不是分级越多越好,须要依据理论状况进行衡量。

一个典型的二级缓存架构,能够应用过程内缓存(如:Caffeine/Google Guava/Ehcache/HashMap)作为一级缓存;应用分布式缓存(如:Redis/Memcached)作为二级缓存。

5.4.1 多级缓存查问

多级缓存查问流程如下:

  • 首先,查问 L1 缓存,如果缓存命中,间接返回后果;如果没有命中,执行下一步。
  • 接下来,查问 L2 缓存,如果缓存命中,间接返回后果并回填 L1 缓存;如果没有命中,执行下一步。
  • 最初,查询数据库,返回后果并顺次回填 L2 缓存、L1 缓存。

5.4.2 多级缓存更新

对于 L1 缓存,如果有数据更新,只能删除并更新所在机器上的缓存,其余机器只能通过超时机制来刷新缓存。超时设定能够有两种策略:

  • 设置成写入后多少工夫后过期;
  • 设置成写入后多少工夫刷新。

对于 L2 缓存,如果有数据更新,其余机器立马可见。然而,也必须要设置超时工夫,其工夫应该比 L1 缓存的无效工夫长。为了解决过程内缓存不统一的问题,设计能够进一步优化;

通过音讯队列的公布、订阅机制,能够告诉其余利用节点对过程内缓存进行更新。应用这种计划,即便音讯队列服务挂了或不牢靠,因为先执行了数据库更新,但过程内缓存过期,刷新缓存时,也能保证数据的最终一致性。

六、缓存问题

6.1 缓存雪崩

缓存雪崩是指缓存不可用或者大量缓存因为超时工夫雷同在同一时间段生效,大量申请间接拜访数据库,数据库压力过大导致系统雪崩。

举例来说,对于零碎 A,假如每天高峰期每秒 5000 个申请,原本缓存在高峰期能够扛住每秒 4000 个申请,然而缓存机器意外产生了全盘宕机。缓存挂了,此时 1 秒 5000 个申请全副落数据库,数据库必然扛不住,它会报一下警,而后就挂了。此时,如果没有采纳什么特地的计划来解决这个故障,DBA 很着急,重启数据库,然而数据库立马又被新的流量给打死了。

解决缓存雪崩的次要伎俩如下:

  • 减少缓存零碎可用性(事先)。例如:部署 Redis Cluster(主从 + 哨兵),以实现 Redis 的高可用,防止全盘解体。
  • 采纳多级缓存计划(事中)。例如:本地缓存(Ehcache/Caffine/Guava Cache)+ 分布式缓存(Redis/ Memcached)。
  • 限流、降级、熔断计划(事中),防止被流量打死。如:应用 Hystrix 进行熔断、降级。
  • 缓存如果反对 长久化,能够在复原工作后复原数据(预先)。如:Redis 反对长久化,一旦重启,主动从磁盘上加载数据,疾速复原缓存数据。

下面的解决方案简略来说,就是多级缓存计划。零碎收到一个查问申请,先查本地缓存,再查分布式缓存,最初查数据库,只有命中,立刻返回。

解决缓存雪崩的辅助伎俩如下:

  • 监控缓存,弹性扩容。
  • 缓存的过期工夫能够取个随机值。这么做是为防止缓存同时生效,使得数据库 IO 骤升。比方:以前是设置 10 分钟的超时工夫,那每个 Key 都能够随机 8-13 分钟过期,尽量让不同 Key 的过期工夫不同。

6.2 缓存穿透

缓存穿透是指:查问的数据在数据库中不存在,那么缓存中天然也不存在。所以,利用在缓存中查不到,则会去查询数据库。当这样的申请多了后,数据库的压力就会增大。

解决缓存穿透,个别有两种办法:

1)缓存空值

对于返回为 NULL 的仍然缓存,对于抛出异样的返回不进行缓存。

采纳这种伎俩的会减少咱们缓存的保护老本,须要在插入缓存的时候删除这个空缓存,当然咱们能够通过设置较短的超时工夫来解决这个问题。

2)过滤不可能存在的数据

制订一些规定过滤一些不可能存在的数据。能够应用布隆过滤器(针对二进制操作的数据结构,所以性能高),比方你的订单 ID 显著是在一个范畴 1-1000,如果不是 1-1000 之内的数据那其实能够间接给过滤掉。

针对于一些歹意攻打,攻打带过去的大量 key 是不存在的,那么咱们采纳第一种计划就会缓存大量不存在 key 的数据。此时咱们采纳第一种计划就不适合了,咱们齐全能够先对应用第二种计划进行过滤掉这些 key。针对这种 key 异样多、申请反复率比拟低的数据,咱们就没有必要进行缓存,应用第二种计划间接过滤掉。而对于空数据的 key 无限的,反复率比拟高的,咱们则能够采纳第一种形式进行缓存。

6.3 缓存击穿

缓存击穿是指,热点数据生效霎时,大量申请间接拜访数据库。例如,某些 key 是热点数据,拜访十分频繁。如果某个 key 生效的霎时,大量的申请过去,缓存未命中,而后去数据库拜访,此时数据库访问量会急剧减少。

为了防止这个问题,咱们能够采取上面的两个伎俩:

  • 分布式锁:锁住热点数据的 key,防止大量线程同时拜访同一个 key。
  • 定时异步刷新:能够对局部数据采取生效前主动刷新的策略,而不是到期主动淘汰。淘汰其实也是为了数据的时效性,所以采纳主动刷新也能够。

6.4 小结

下面逐个介绍了缓存应用中常见的问题。这里,从产生时间段的角度整体演绎一下缓存问题解决方案。

  • 事先:Redis 高可用计划(Redis Cluster + 主从 + 哨兵),防止缓存全面解体。
  • 事中:(一)采纳多级缓存计划,本地缓存(Ehcache/Caffine/Guava Cache)+ 分布式缓存(Redis/ Memcached)。(二)限流 + 熔断 + 降级(Hystrix),防止极其状况下,数据库被打死。
  • 预先:Redis 长久化(RDB+AOF),一旦重启,主动从磁盘上加载数据,疾速复原缓存数据。

分布式缓存 Memcached,因为数据类型不如 Redis 丰盛,并且不反对长久化、容灾。所以,个别会抉择 Redis 做分布式缓存。

七、缓存策略

7.1 缓存预热

缓存预热是指系统启动后,间接查问热点数据并缓存。这样就能够防止用户申请的时候,先查询数据库,而后再更新缓存的问题。

解决方案:

  • 手动刷新缓存:间接写个缓存刷新页面,上线时手工操作下。
  • 利用启动时刷新缓存:数据量不大,能够在我的项目启动的时候主动进行加载。
  • 定时异步刷新缓存。

7.2 如何缓存

7.2.1 不过期缓存

  • 缓存更新模式:
  • 开启事务;
  • 写 SQL;
  • 提交事务;
  • 写缓存;

不要把写缓存操作放在事务中,尤其是写分布式缓存。因为网络抖动可能导致写缓存响应工夫很慢,引起数据库事务阻塞。如果对缓存数据一致性要求不是那么高,数据量也不是很大,能够思考定期全量同步缓存。

这种模式存在这样的状况:存在事务胜利,但缓存写失败的可能。但这种状况绝对于下面的问题,影响较小。

7.2.2 过期缓存

采纳懒加载。对于热点数据,能够设置较短的缓存工夫,并定期异步加载。

7.3 缓存更新

一般来说,零碎如果不是严格要求缓存和数据库放弃一致性的话,尽量不要将读申请和写申请串行化。串行化能够保障肯定不会呈现数据不统一的状况,然而它会导致系统的吞吐量大幅度降落。

一般来说缓存的更新有两种状况:

  • 先删除缓存,再更新数据库;
  • 先更新数据库,再删除缓存;

为什么是删除缓存,而不是更新缓存呢?

你能够想想当有多个并发的申请更新数据,你并不能保障更新数据库的程序和更新缓存的程序统一,那就会呈现数据库中和缓存中数据不统一的状况。所以一般来说思考删除缓存。

  • 先删除缓存,再更新数据库;

对于一个更新操作简略来说,就是先去各级缓存进行删除,而后更新数据库。这个操作有一个比拟大的问题,在对缓存删除完之后,有一个读申请,这个时候因为缓存被删除所以间接会读库,读操作的数据是老的并且会被加载进入缓存当中,后续读申请全副拜访的老数据。

对缓存的操作不管成功失败都不能阻塞咱们对数据库的操作,那么很多时候删除缓存能够用异步的操作,然而先删除缓存不能很好的实用于这个场景。先删除缓存也有一个益处是,如果对数据库操作失败了,那么因为先删除的缓存,最多只是造成 Cache Miss。

1)先更新数据库,再删除缓存(注:更举荐应用这种策略)。

如果咱们应用更新数据库,再删除缓存就能防止下面的问题。

然而同样的引入了新的问题:假如执行更新操作时,又接管到查问申请,此时就会返回缓存中的老数据。更麻烦的是,如果数据库更新操作执行失败,则缓存中可能永远是脏数据。

2)应该抉择哪种更新策略

通过下面的内容,咱们晓得,两种更新策略都存在并发问题。

然而倡议抉择先更新数据库,再删除缓存,因为其并发问题呈现的概率可能非常低,因为这个条件须要产生在读缓存时缓存生效,而且同时有一个并发写操作。而实际上数据库的写操作会比读操作慢得多,而且还要锁表,而读操作必须在写操作前进入数据库操作,而又要晚于写操作更新缓存,所有的这些条件都具备的概率根本并不大。

如果须要数据库和缓存保障强一致性,则能够通过 2PC 或 Paxos 协定来实现。然而 2PC 太慢,而 Paxos 太简单,所以如果不是十分重要的数据,不倡议应用强一致性计划。更具体的剖析能够参考:分布式之数据库和缓存双写一致性计划解析。

八、总结

最初,通过一张思维导图来总结一下本文所述的知识点,帮忙大家对缓存有一个系统性的意识。

九、参考资料

1、《大型网站技术架构:外围原理与案例剖析》

2、你应该晓得的缓存进化史

3、如何优雅的设计和应用缓存?

4、了解分布式系统中的缓存架构(上)

5、缓存那些事

6、分布式之数据库和缓存双写一致性计划解析

作者:vivo 互联网服务器团队 -Zhang Peng

正文完
 0