LruCacahe在美团DSP系统中的应用演进

43次阅读

共计 5844 个字符,预计需要花费 15 分钟才能阅读完成。

背景
DSP 系统是互联网广告需求方平台,用于承接媒体流量,投放广告。业务特点是并发度高,平均响应低(百毫秒)。
为了能够有效提高 DSP 系统的性能,美团平台引入了一种带有清退机制的缓存结构 LruCache(Least Recently Used Cache),在目前的 DSP 系统中,使用 LruCache + 键值存储数据库的机制将远端数据变为本地缓存数据,不仅能够降低平均获取信息的耗时,而且通过一定的清退机制,也可以维持服务内存占用在安全区间。
本文将会结合实际应用场景,阐述引入 LruCache 的原因,并会在高 QPS 下的挑战与解决方案等方面做详细深入的介绍,希望能对 DSP 感兴趣的同学有所启发。
LruCache 简介
LruCache 采用的缓存算法为 LRU(Least Recently Used),即最近最少使用算法。这一算法的核心思想是当缓存数据达到预设上限后,会优先淘汰近期最少使用的缓存对象。
LruCache 内部维护一个双向链表和一个映射表。链表按照使用顺序存储缓存数据,越早使用的数据越靠近链表尾部,越晚使用的数据越靠近链表头部;映射表通过 Key-Value 结构,提供高效的查找操作,通过键值可以判断某一数据是否缓存,如果缓存直接获取缓存数据所属的链表节点,进一步获取缓存数据。LruCache 结构图如下所示,上半部分是双向链表,下半部分是映射表(不一定有序)。双向链表中 value_1 所处位置为链表头部,value_N 所处位置为链表尾部。

LruCache 读操作,通过键值在映射表中查找缓存数据是否存在。如果数据存在,则将缓存数据所处节点从链表中当前位置取出,移动到链表头部;如果不存在,则返回查找失败,等待新数据写入。下图为通过 LruCache 查找 key_2 后 LruCache 结构的变化。

LruCache 没有达到预设上限情况下的写操作,直接将缓存数据加入到链表头部,同时将缓存数据键值与缓存数据所处的双链表节点作为键值对插入到映射表中。下图是 LruCache 预设上限大于 N 时,将数据 M 写入后的数据结构。

LruCache 达到预设上限情况下的写操作,首先将链表尾部的缓存数据在映射表中的键值对删除,并删除链表尾部数据,再将新的数据正常写入到缓存中。下图是 LruCache 预设上限为 N 时,将数据 M 写入后的数据结构。

线程安全的 LruCache 在读写操作中,全部使用锁做临界区保护,确保缓存使用是线程安全的。
LruCache 在美团 DSP 系统的应用场景
在美团 DSP 系统中广泛应用键值存储数据库,例如使用 Redis 存储广告信息,服务可以通过广告 ID 获取广告信息。每次请求都从远端的键值存储数据库中获取广告信息,请求耗时非常长。随着业务发展,QPS 呈现巨大的增长趋势,在这种高并发的应用场景下,将广告信息从远端键值存储数据库中迁移到本地以减少查询耗时是常见解决方案。另外服务本身的内存占用要稳定在一个安全的区间内。面对持续增长的广告信息,引入 LruCache + 键值存储数据库的机制来达到提高系统性能,维持内存占用安全、稳定的目标。
LruCache + Redis 机制的应用演进
在实际应用中,LruCache + Redis 机制实践分别经历了引入 LruCache、LruCache 增加时效清退机制、HashLruCache 满足高 QPS 应用场景以及零拷贝机制四个阶段。各阶段的测试机器是 16 核 16G 机器。
演进一:引入 LruCache 提高美团 DSP 系统性能
在较低 QPS 环境下,直接请求 Redis 获取广告信息,可以满足场景需求。但是随着单机 QPS 的增加,直接请求 Redis 获取广告信息,耗时也会增加,无法满足业务场景的需求。
引入 LruCache,将远端存放于 Redis 的信息本地化存储。LruCache 可以预设缓存上限,这个上限可以根据服务所在机器内存与服务本身内存占用来确定,确保增加 LruCache 后,服务本身内存占用在安全范围内;同时可以根据查询操作统计缓存数据在实际使用中的命中率。
下图是增加 LruCache 结构前后,且增加 LruCache 后命中率高于 95% 的情况下,针对持续增长的 QPS 得出的数据获取平均耗时 (ms) 对比图:

根据平均耗时图显示可以得出结论:

QPS 高于 250 后,直接请求 Redis 获取数据的平均耗时达到 10ms 以上,完全无法满足使用的需求。
增加 LruCache 结构后,耗时下降一个量级。从平均耗时角度看,QPS 不高于 500 的情况下,耗时低于 2ms。

下图是增加 LruCache 结构前后,且增加 LruCache 后命中率高于 95% 的情况下,针对持续增长的 QPS 得出的数据获取 Top999 耗时 (ms) 对比图:

根据 Top999 耗时图可以得出以下结论:

增加 LruCache 结构后,Top999 耗时比平均耗时增长一个数量级。
即使是较低的 QPS 下,使用 LruCache 结构的 Top999 耗时也是比较高的。

引入 LruCache 结构,在实际使用中,在一定的 QPS 范围内,确实可以有效减少数据获取的耗时。但是 QPS 超出一定范围后,平均耗时和 Top999 耗时都很高。所以 LruCache 在更高的 QPS 下性能还需要进一步优化。
演进二:LruCache 增加时效清退机制
在业务场景中,Redis 中的广告数据有可能做修改。服务本身作为数据的使用方,无法感知到数据源的变化。当缓存的命中率较高或者部分数据在较长时间内多次命中,可能出现数据失效的情况。即数据源发生了变化,但服务无法及时更新数据。针对这一业务场景,增加了时效清退机制。
时效清退机制的组成部分有三点:设置缓存数据过期时间,缓存数据单元增加时间戳以及查询中的时效性判断。缓存数据单元将数据进入 LruCache 的时间戳与数据一起缓存下来。缓存过期时间表示缓存单元缓存的时间上限。查询中的时效性判断表示查询时的时间戳与缓存时间戳的差值超过缓存过期时间,则强制将此数据清空,重新请求 Redis 获取数据做缓存。
在查询中做时效性判断可以最低程度的减少时效判断对服务的中断。当 LruCache 预设上限较低时,定期做全量数据清理对于服务本身影响较小。但如果 LruCache 的预设上限非常高,则一次全量数据清理耗时可能达到秒级甚至分钟级,将严重阻断服务本身的运行。所以将时效性判断加入到查询中,只对单一的缓存单元做时效性判断,在服务性能和数据有效性之间做了折中,满足业务需求。
演进三:高 QPS 下 HashLruCache 的应用
LruCache 引入美团 DSP 系统后,在一段时间内较好地支持了业务的发展。随着业务的迭代,单机 QPS 持续上升。在更高 QPS 下,LruCache 的查询耗时有了明显的提高,逐渐无法适应低平响的业务场景。在这种情况下,引入了 HashLruCache 机制以解决这个问题。
LruCache 在高 QPS 下的耗时增加原因分析:
线程安全的 LruCache 中有锁的存在。每次读写操作之前都有加锁操作,完成读写操作之后还有解锁操作。在低 QPS 下,锁竞争的耗时基本可以忽略;但是在高 QPS 下,大量的时间消耗在了等待锁的操作上,导致耗时增长。
HashLruCache 适应高 QPS 场景:
针对大量的同步等待操作导致耗时增加的情况,解决方案就是尽量减小临界区。引入 Hash 机制,对全量数据做分片处理,在原有 LruCache 的基础上形成 HashLruCache,以降低查询耗时。
HashLruCache 引入某种哈希算法,将缓存数据分散到 N 个 LruCache 上。最简单的哈希算法即使用取模算法,将广告信息按照其 ID 取模,分散到 N 个 LruCache 上。查询时也按照相同的哈希算法,先获取数据可能存在的分片,然后再去对应的分片上查询数据。这样可以增加 LruCache 的读写操作的并行度,减小同步等待的耗时。
下图是使用 16 分片的 HashLruCache 结构前后,且命中率高于 95% 的情况下,针对持续增长的 QPS 得出的数据获取平均耗时 (ms) 对比图:

根据平均耗时图可以得出以下结论:

使用 HashLruCache 后,平均耗时减少将近一半,效果比较明显。
对比不使用 HashLruCache 的平均耗时可以发现,使用 HashLruCache 的平均耗时对 QPS 的增长不敏感,没有明显增长。

下图是使用 16 分片的 HashLruCache 结构前后,且命中率高于 95% 的情况下,针对持续增长的 QPS 得出的数据获取 Top999 耗时 (ms) 对比图:

根据 Top999 耗时图可以得出以下结论:

使用 HashLruCache 后,Top999 耗时减少为未使用时的三分之一左右,效果非常明显。
使用 HashLruCache 的 Top999 耗时随 QPS 增长明显比不使用的情况慢,相对来说对 QPS 的增长敏感度更低。

引入 HashLruCache 结构后,在实际使用中,平均耗时和 Top999 耗时都有非常明显的下降,效果非常显著。
HashLruCache 分片数量确定:
根据以上分析,进一步提高 HashLruCache 性能的一个方法是确定最合理的分片数量,增加足够的并行度,减少同步等待消耗。所以分片数量可以与 CPU 数量一致。由于超线程技术的使用,可以将分片数量进一步提高,增加并行性。
下图是使用 HashLruCache 机制后,命中率高于 95%,不同分片数量在不同 QPS 下得出的数据获取平均耗时 (ms) 对比图:

平均耗时图显示,在较高的 QPS 下,平均耗时并没有随着分片数量的增加而有明显的减少,基本维持稳定的状态。
下图是使用 HashLruCache 机制后,命中率高于 95%,不同分片数量在不同 QPS 下得出的数据获取 Top999 耗时 (ms) 对比图:

Top999 耗时图显示,QPS 为 750 时,分片数量从 8 增长到 16 再增长到 24 时,Top999 耗时有一定的下降,并不显著;QPS 为 1000 时,分片数量从 8 增长到 16 有明显下降,但是从 16 增长到 24 时,基本维持了稳定状态。明显与实际使用的机器 CPU 数量有较强的相关性。
HashLruCache 机制在实际使用中,可以根据机器性能并结合实际场景的 QPS 来调节分片数量,以达到最好的性能。
演进四:零拷贝机制
线程安全的 LruCache 内部维护一套数据。对外提供数据时,将对应的数据完整拷贝一份提供给调用方使用。如果存放结构简单的数据,拷贝操作的代价非常小,这一机制不会成为性能瓶颈。但是美团 DSP 系统的应用场景中,LruCache 中存放的数据结构非常复杂,单次的拷贝操作代价很大,导致这一机制变成了性能瓶颈。
理想的情况是 LruCache 对外仅仅提供数据地址,即数据指针。使用方在业务需要使用的地方通过数据指针获取数据。这样可以将复杂的数据拷贝操作变为简单的地址拷贝,大量减少拷贝操作的性能消耗,即数据的零拷贝机制。直接的零拷贝机制存在安全隐患,即由于 LruCache 中的时效清退机制,可能会出现某一数据已经过期被删除,但是使用方仍然通过持有失效的数据指针来获取该数据。
进一步分析可以确定,以上问题的核心是存放于 LruCache 的数据生命周期对于使用方不透明。解决这一问题的方案是为 LruCache 中存放的数据添加原子变量的引用计数。使用原子变量不仅确保了引用计数的线程安全,使得各个线程读取的引用计数一致,同时保证了并发状态最小的同步性能开销。不论是 LruCache 中还是使用方,每次获取数据指针时,即将引用计数加 1;同理,不再持有数据指针时,引用计数减 1。当引用计数为 0 时,说明数据没有被任何使用方使用,且数据已经过期从 LruCache 中被删除。这时删除数据的操作是安全的。
下图是使零拷贝机制后,命中率高于 95%,不同 QPS 下得出的数据获取平均耗时 (ms) 对比图:

平均耗时图显示,使用零拷贝机制后,平均耗时下降幅度超过 60%,效果非常显著。
下图是使零拷贝机制后,命中率高于 95%,不同 QPS 下得出的数据获取 Top999 耗时 (ms) 对比图:

根据 Top999 耗时图可以得出以下结论:

使用零拷贝后,Top999 耗时降幅将近 50%,效果非常明显。
在高 QPS 下,使用零拷贝机制的 Top999 耗时随 QPS 增长明显比不使用的情况慢,相对来说对 QPS 的增长敏感度更低。

引入零拷贝机制后,通过拷贝指针替换拷贝数据,大量降低了获取复杂业务数据的耗时,同时将临界区减小到最小。线程安全的原子变量自增与自减操作,目前在多个基础库中都有实现,例如 C ++11 就提供了内置的整型原子变量,实现线程安全的自增与自减操作。
在 HashLruCache 中引入零拷贝机制,可以进一步有效降低平均耗时和 Top999 耗时,且在高 QPS 下对于稳定 Top999 耗时有非常好的效果。
总结
下图是一系列优化措施前后,命中率高于 95%,不同 QPS 下得出的数据获取平均耗时 (ms) 对比图:

平均耗时图显示,优化后的平均耗时仅为优化前的 20% 以内,性能提升非常明显。优化后平均耗时对于 QPS 的增长敏感度更低,更好的支持了高 QPS 的业务场景。
下图是一系列优化措施前后,命中率高于 95%,不同 QPS 下得出的数据获取 Top999 耗时 (ms) 对比图:

Top999 耗时图显示,优化后的 Top999 耗时仅为优化前的 20% 以内,对于长尾请求的耗时有非常明显的降低。
LruCache 是一个非常常见的数据结构。在美团 DSP 的高 QPS 业务场景下,发挥了重要的作用。为了符合业务需要,在原本的清退机制外,补充了时效性强制清退机制。随着业务的发展,针对更高 QPS 的业务场景,使用 HashLruCache 机制,降低缓存的查询耗时。针对不同的具体场景,在不同的 QPS 下,不断尝试更合理的分片数量,不断提高 HashLruCache 的查询性能。通过引用计数的方案,在 HashLruCache 中引入零拷贝机制,进一步大幅降低平均耗时和 Top999 耗时,更好的服务于业务场景的发展。
作者简介
王粲,2018 年 11 月加入美团,任职美团高级工程师,负责美团 DSP 系统后端基础架构的研发工作。
崔涛,2015 年 6 月加入美团,任职资深广告技术专家,期间一手指导并从 0 到 1 搭建美团 DSP 投放平台,具备丰富的大规模计算引擎的开发和性能优化经验。
霜霜,2015 年 6 月加入美团,任职美团高级工程师,美团 DSP 系统后端基础架构与机器学习架构负责人,全面负责 DSP 业务广告召回和排序服务的架构设计与优化。
招聘
美团在线营销 DSP 团队诚招工程、算法、数据等各方向精英,发送简历至 cuitao@meituan.com,共同支持百亿级流量的高可靠系统研发与优化。

正文完
 0