专栏名称: 高可用架构
高可用架构公众号。
目录
相关文章推荐
金融早实习  ·  2月6日-实习日报|中银基金+兴业证券+五矿 ... ·  2 天前  
Wind万得  ·  新晋3岁百亿“影帝”助光线传媒20CM涨停 ·  2 天前  
金融早实习  ·  2025年春季校园招聘全面开启通知!校招网申 ... ·  3 天前  
供应链金融  ·  奖项申报已开启! | ... ·  3 天前  
邢者团队晚间解盘  ·  开工了开工了 ·  3 天前  
51好读  ›  专栏  ›  高可用架构

携程 Redis On Rocks 实践,节省 2/3 Redis成本

高可用架构  · 公众号  ·  · 2024-03-11 08:39

正文

作者简介

patpatbear,携程软件技术专家,负责携程缓存内核的维护,热爱开源,专注于高性能、分布式NoSQL系统的建设和应用。

一、背景

redis使用内存作为存储介质,具有良好的性能和低延迟,但其内存容量通常成为 瓶颈,且内存价格较高,导致redis使 用成本较高。

随着SSD磁盘性能的不断提高,NVMe SSD的 随机读写延迟也仅有几十微秒,与re dis的固有延迟(100~200us)相当,用SSD作为存储介质也可以达到较 低的延迟,同时节省成本。

因此我们研发了ROR(Redis-On-Rocks)产品,通过对redis内核增强以支持数据冷热交换,使用磁盘扩展缓存容量,可节省约2/3成本,而性能也能满足大多数业务需求。

二、ROR简介

ROR核心思路很简单:在redis codebase基础上扩展冷热交换功能,实现redis数据冷热多级存储,降低缓存的综合使用成本。

ROR将数据分为冷热两部分:

  • 热数据沿用redis引擎,使用内存存储,数据结构和原生redis完全一致

  • 冷数据选用RocksDB引擎,使用磁盘存储,以subkey为粒度存储在RocksDB中

ROR负责冷热数据的交换:

  • 换入(从RocksDB到redis): 当客户端访问冷数据,则将RocksDB中的数据换入到 redis中,ROR把命令依赖的数据换入到redis,后续命令执行与原生redis一致。

  • 换出(从redis到RocksDB):当内存用量超过maxmemory之后,则将热数据换出到RocksDB中,ROR冷热交换算法采用了redis原生的LFU算法,原本被redis evict的数据将被交换到内存中。

由于ROR继承了redis的数据结构和命令实现,只负责冷热数据交换,因此可以兼容几乎所有的redis命令,可快速跟进redis官方新特性。

三、与RoF对比

从长远发展考虑,redis是事实上的缓存标准,缓存内核基于社区开源redis更便于跟进社区redis演进,因此ROR选择了基于redis基础上扩展冷热交换能力。

RedisLabs的商业产品Redis-on-Flash(RoF)与ROR设计思路类似,但是调研之后,我们发现RoF在成本、通用性、性能等方面并不能满足我们的需求。

3.1 成本

RoF把value保存在磁盘、key保留在内存主表,可以方便地兼容dbsize、scan、randomkey等命令,但占用的内存量会随着dbsize线性上升。

冷数据key保存在内存主表(hashtable),每个key的辅助指针、robj等平均占用约50B,生产String类型平均value大小为512B。 从成本的角度看,按照key占内存10%,value占90%计算

  • 换出80%value,可减少72% (80%*90%) 内存

  • 换出80%冷key,可继续减少29% (10%*80%/(100%-72%))内存

因此ROR并不把冷数据的key保存在内存,而是保存到RocksDB中单独的meta column family。

考虑到meta  column family访问比较频繁,且只存储type、expire之类的少量元数据,因此用少量内存(block cache)可以缓存多数冷key。

经验证,分配256MB block cache后,把冷数据的key存储到RocksDB并不会降低整体QPS,但会增加IO线程的CPU消耗,由于redis宿主机cpu利用率只有10%,用cpu换内存是可以接受的。

3.2 通用性

为了避免重复缓存,RoF禁用了RocksDB层的table cache和文件系统层的page cache。 这意味着访问冷key时必须进行IO操作,因此冷key和热key的访问延迟会有较大区别。

为了提高通用性,ROR合理利用RocksDB层的table cache和操作系统层的page cache,尽可能利用未被占用的内存,减少访问冷key和热key之间的延迟差距。

实际上,无论是DBA还是业务方,都很难准确预测缓存集群是否存在明显的冷热特征。 ROR适用于通用场景,能够大大减少沟通成本和业务方关于延迟的担忧。

在redis迁移至ROR时,我们并不评估应用程序是否具有冷热特征,只要业务QPS在redis的一半以下,对P99延迟不是非常敏感,就可以将其迁移到ROR。

3.3 性能

RoF按key粒度存储,key与RocksDB key一一对应;而ROR按subkey粒度存储,subkey都与RocksDB key一一对应。

对于HSET、HGET等聚合类型命令,RoF需要换入换出整个key,而ROR只读写必要的subkey,因此读写放大远低于RoF,QPS和延迟也优于RoF。

以下为ROR、RoF在大压力(100线程不限QPS)和普通压力(1000线程10000QPS),读写纯冷数据的QPS和延迟。 可以看出:

  • 大压力情况下,ROR HGET、HSET命令QPS约为RoF的2~3倍

  • 普通压力情况下,ROR延迟约300~500us,远低于RoF 14~120ms 延迟

场景\方案 ROR RoF
HGET 100thd QPS=22134

LAT(mean,p99)=4762 27495 (us)

QPS=10195

Latency(mean,p99): 9730 16521(us)

1wqps

QPS=9968

LAT(mean,p99)=343

969 (us)

QPS=9956

Latency(mean,p99): 14270 100746(us)

HSET

100thd QPS=26182

Latency(mean,p99):

4034 21802(us)

QPS=7994
Latency(mean,p99): 12250 27492(us)
1wqps QPS=9969

Latency(mean,p99):

511 4437(us)

QPS=7806
Latency(mean,p99): 119396 242467(us)
试说 明:
  • 数据: hash: 5,000,000 (key count) * 2KB (per key,5个field,每个filed 400B)

  • 配置:ROR的maxmemory设置为200MB;RoF有最小内存限制,设置为2G

  • 场景:a)100thd:压力测试,100客户端并发,不限速测试;b)1wqps:模拟常规访问,1000客户端,限速1W QPS测试

对于超大的聚合key,RoF将整个key加载到内存中,会有明显的延迟尖刺(可达秒级); 而ROR只将必要的subkey换入内存,则不会有明显的延迟尖刺。

多数使用redis的业务对延迟比较敏感,不能接受过大延迟尖刺。

场景\方案 ROR RoF

HGET

hugehash

field

<1ms 1.48s

LPOP

hugelist

<1ms 0.704s
测试说明:
  • hash: 共有1,000,000个元素,每个元素128B

  • list:共有1,000,000个元素,每个元素128B

四、实现方案

4.1 冷热交换

以下 是客户端访问到冷key时ROR的处理过程。 其中蓝色模块与原生redis相同,橙色模块为ROR新增的冷热交换功能。

总体上ROR先冷热交换(swap),再执行命令处理流程。

冷热交换(swap)过程主要分为以下步骤:

1)语法分析: 分析客户端命令涉及哪些key和subkey。 比如,可以分析出MGET k1 k2 k3依赖于k1,k2,k3; 而HMGET h1 f1 f2 f3,依赖于 h1.{ f1, f2, f3 }。

2)加锁: 根据语法分析出的结果,对命令所依赖的key加锁。 值得注意的是,这里的锁并不是pthread_mutex之类的线程锁,而是ROR项目实现的一种单线程锁,本质上是一个等待队列,详细介绍参考后续并发控制章节。

3)提交SWAP任务: 拿到锁之后,提交swap任务到IO线程组执行RocksDB读写。

4) 执行RocksDB读写: IO线程组执行RocksDB读操作。

5)合并数据: 将RocksDB 读取的数据合并到redis中。

经过swap过程之后,冷数据已经换入到redis,后续执行命令与原生redis一致。

4.2 并发控制

redis架构上为单主线程,而RocksDB提供的是阻塞模式的API,直接使用redis主线程调用RocksDB将极大降低redis的性能。为了提高IO吞吐,ROR使用了额外的IO线程组执行RocksDB读写。由于增加了IO线程组,对于同一key的读写不再是单线程,如果不加控制,那么数据将变得错乱。

为了控制并发,ROR设计实现了一种单线程可重入锁来保证同一时间对同一key只有一个客户端在进行IO交换。 这里的锁并不是pthread_mutex这种系统线程锁,其本质是一个等待队列: 当key被锁定后,尝试获取该锁的客户端必须等待前序客户端释放锁之后才能获取到key的锁。

如下图所示,C1、C2、C3三个客户端先后执行了MGET命令,其中Key1、Key2、Key3均为冷数据。

C1依赖Key1、Key2,由于这2个key未被锁定且为冷,因此C1获取到Key1、Key2的锁,并触发了Key1、Key2换入;

C2依赖Key2、Key3,由于Key2被C1锁定,因此C2等待C1执行结束才能获取key2锁; Key3未被锁定且为冷,因此C2获取到了Key2的锁,并触发了Key3换入;

C3依赖Key1、key3,由于Key1、Key3分别被C1、C2锁定,因此C3等待C1、C2执行结束后才能获取Key1、Key3锁。

因此最终换入Key1、Key2、Key3换入后,客户端执行顺序为C1=>C2=>C3。

以上是一个简单的示例,ROR为了实现FLUSHDB/BGSAVE之类涉及整个keyspace的命令并发控制需求,等待队列包含KEY、DB、SVR三种粒度的锁,大粒度的锁需等待细粒度锁释放后才能获得。 此外为了确保MULTI/EXEC事务不产生死锁,允许同一个事务重复锁定同一key(亦即可重入)。

如下图所示,C1、C2两个客户端先后发起2个事务。

C1依赖Key1(2次),由于C1在同一事务中依赖Key1(2次)且为冷,因此C1获得Key1锁并触发换入;

C2依赖Key2(2次)、DB0、SVR锁,由于C2在同一事务中依赖Key2(2次)且为冷,因此C2获得Key2锁并触发换入; 注意由于C2依赖DB0锁,DB0锁范围大约Key1、Key2,因此只有C1释放Key1之后才能获得DB0锁。

假设Key1先于Key2被换入,Key1换入后,C1事务得到执行并释放Key1锁。

当Key2换入后,C2获得DB0锁以及SVR锁(获得所有锁),C2事务得到执行。

4.3 冷数据存储

与业界多数方案一样,ROR的冷数据存储采用了RocksDB引擎,设计上参考了kvrocks、pika等项目,主要有3个要点:

  • key存储到RocksDB

  • subkey与RocksDB KV对应(i.e. 按subkey存储)

  • lazy删除聚合类型key

key存储到RocksDB

ROR为了做到内存消耗与dbsize无关,内存中并不会存储冷key,key类型、expire、version等信息会存储到RocksDB的metaCF中。 这样设计主要是考虑每个key需要额外消耗约50B,如果dbsize为1亿则需要额外消耗约5GB内存。 对dbsize大、value小的集群来讲,额外消耗的内存过多,冷热分离的性价比则不高。

因此ROR和RoF不同,不会把冷key存储在内存中,少量与key相关(scan、randomkey、dbsize)命令,则进行适配性改造。

s ubkey与RocksDB KV对应

RocksDB的数据类型只有KV,与redis支持hash、set、zset等聚合类型key不能一一对应,因此需要构造redis聚合类型key与RocksDB KV类型之间的对应关系。

最直接的方案是将redis的聚合类型key直接序列化单个为RocksDB KV,但这种方案的缺点非常明显,即HGET hash subkey只依赖单个subkey的命令,也需要将整个聚合类型key换入到内存,这会造成严重的读写放大。

因此ROR将聚合类型的subkey存储为RocksDB KV,换入聚合类型数据冷key只需要换入必要的subkey。

lazy删除聚合类型key

对于聚合类型key而言,每个subkey对应RocksDB KV,ROR删除聚合key需要删除掉所有的subkey,直接从RocksDB中迭代删除复杂度为O(N),会造成延迟尖刺。

参考pika、kvrocks的设计,聚合类型key都有版本号,ROR删除聚合key时,只删掉metaCF的元数据,而其他subkey则在RocksDB compaction中通过compaction filter逐渐过滤删除。

hash/set/zset编码

以下是hash/set类型的编码格式:

每个hash/set在metaCF有1个RocksDB KV,记录了类型、超时时间、版本以及subkey数量。

每个hash/set在defaultCF有N个RocksDB KV,每个subkey对应一个。 由于每个subkey都记录了对应的version,因此删除聚合key只需要把metaCF的KV删掉即完成lazy删除。

zset类型的编码格式类似,只多了scoreCF记录zset的score排序。

list编码

由于与hash/set/zset的操作差别较大,list数据模型设计上也有所差别。 设计上,ROR内存中的list仍复用redis数据结构,且list可能只有部分subkey在内存中。

模型上list的设计如下:

  • list为任意段rockslist(冷)和memlist(热)的组合

  • list元素要么在memlist、要么在rockslist,memlist没有交集

  • 分段信息存储在listObjectMeta.segments中,segments的每个元素表示一段,记录了每段的类型以及长度。


rockslist也按subkey粒度存储在RocksDB中。

4.4 cuckoo filter减少IO

前面提到ROR为了做到内存用量与dbsize无关,key元信息不存储在内存中,因此如果客户端访问的key不是热数据,则必须查询RocksDB才能确认key是否存在:对于key存在的情况,读RocksDB并换入冷数据是必要的;但如果key不存在,则读RocksDB是非必要的。特别是当业务keyspace miss率高的情况(比如重复读不存在的key),存在大量的非必要IO情况,降低了整体性能。

对于过滤不存在key问题,用bloom filter能以8~10 bit per key的内存取得很好的过滤效果,但由于bloom filter不支持删除,而ROR的keyspace始终处于动态变化中,因此bloom filter功能上无法满足需求。

经过调研之后,我们发现cuckoo filter可以很好地满足我们的需求,支持删除并且内存消耗量仅需8 bit per key即可满足ROR过滤准确度需求。

由于无法预测准确到key数量,ROR实现cuckoo filter时采用了多个容量指数增长的cuckoo filter组成的cascading cuckoo filter。

经过测试我们发现,对于keyspace miss场景,cuckoo filter可以将ROR的QPS从5W提升到6W左右,吞吐提升约20%; 对于keyspace hit场景则无明显影响。

4.5 兼容redis复制

ROR的复制协议完全兼容redis原生复制,全量复制采用RDB格式,增量复制使用RESP协议。 由于完全兼容redis原生复制协议,ROR可以直接对接xpipe,具备DR能力。

流式全量复制

ROR与Redis全量复制主要流程相同: master fork出child进程,由child进程打RDB。 ROR由于有冷热两类数据,因此生成RDB的与原生Redis有区别:

  • 热数据生成RDB方案不变

  • 冷数据先获取RocksDB CHECKPOINT,然后SCAN冷数据转换为RDB格式


冷数据(RocksDB部分)生成RDB的一种方案是将冷key临时加载内存,复用redis的序列化方法构造RDB,但这种方案加载全部冷key会消耗大量CPU,当遇到redis宿主机宕机重启,大量redis全量同步争用CPU将导致全量同步时间过长。







请到「今天看啥」查看全文