专栏名称: HULK一线技术杂谈
HULK是360的私有云平台,丰富的一线实战经验,为你带来最有料的技术分享
目录
相关文章推荐
河南商报  ·  本田、日产和三菱汽车终止合并 ·  8 小时前  
科技新知  ·  小鹏有了“雷军”味儿 ·  2 天前  
科技新知  ·  小鹏有了“雷军”味儿 ·  2 天前  
Python初级入门到精通  ·  一曲东风破长安,东风与长安汽车的合并重组,谁 ... ·  3 天前  
Python初级入门到精通  ·  一曲东风破长安,东风与长安汽车的合并重组,谁 ... ·  3 天前  
51好读  ›  专栏  ›  HULK一线技术杂谈

一款可能解放DBA的分布式数据库RadonDB的体验之旅

HULK一线技术杂谈  · 公众号  ·  · 2018-05-08 18:00

正文

女主宣言

上上周收到吴炳锡老师和青云QingCloud的邀请,参加了即将开源的基于MySQL的一款分布式数据库RadonDB的技术交流会。由于本人对于各大公有云厂商底层技术的实现比较感兴趣,所以对此次技术交流会有一些心得并做了总结。接下来就给大家分享参与RadonDB的交流的一些心得。

PS:丰富的一线技术、多元化的表现形式,尽在“ HULK一线技术杂谈 ”,点关注哦!

背景介绍

在详细介绍RadonDB体验心得之前,我们先来介绍一下当下DBA在使用传统MySQL主从或主从+proxy架构模式下依然存在的一些棘手问题。

  1. 基于第三方插件(通常MHA)的快速切换与数据一致性保证;

  2. 单实例海量数据分库分表后的group、sort、limit及join查询;

  3. 分库分片后各实例数据不均及数据增长后二次拆分问题;

  4. 分库分片后跨实例操作的分布式事物保证问题。

RadonDB架构

总体上来说RadonDB相对优雅的解决了上述问题,不过要清楚知道RadonDB如何处理上述问题我们得首先了解一下它的整体架构。

第一眼看上去除了多出了计算节点(Compute Nodes),整个架构和一般的分库分表中间件+MySQL没什么太大的区别。但实际上里面的很多设计细节很值得玩味,具体如下:

SQL节点(SQL Node)

SQL节点(SQL Node),负责一些如分布式执行计划和分布式事物协调的工作,因此一般的DML操作都具备了分布式事物保证,不过DDL没有提供类似的保障。


当然DDL操作一般变更频率不高,同时小概率失败(可手动重试)也并不影响业务,DBA在使用上进行控制即可。需要提醒的是为了保障分布式事物Snapshot隔离级别,SQL节点只有一个对外提供写,其他节点只读。


更重要的一点是每个SQL节点存储了一份表(table)存储分布的元数据,借助元数据信息可以很方便的进行后端存储节点的数据迁移操作(有点类似mongo的balance功能)。SQL节点之间会相互进行通信交换元数据的变化信息,通信协议类似于redis cluster 采用的当前流行的gossip协议。


存储节点(Storage Nodes)

存储节点(Storage Nodes),实际上直接使用的是MySQL5.7(其实也兼容5.6+GTID)的默认三个节点的N组(N>=1)主从集群结构。不过这里引入了与mongo类似的raft(分布式一致性协议)协议来进行自动高可用切换。RadonDB的raft协议实现主要是基于GTID日志,因此RadonDB要求必须开启GTID复制模式,同时为了提供金融场景下的数据强一致性保障,RadonDB要求采用强semi-sync+永不超时机制。在实际的使用中DBA自己可以依据不同的场景进行不同的配置。


计算节点(Compute Nodes)

计算节点(Compute Nodes),这个设计让人眼前一亮,之前也设计过分布式proxy Atlas,当时一直为高并发查询与跨物理节点的复杂查询并存时的性能问题头疼不已。实际上SQL节点会对请求SQL进行解析,并决定哪些是复杂SQL,然后将对应请求路由至计算节点。


需要注意的是计算节点存储的是所有Storage Nodes集群的全量数据,并且内部通过基于binlog订阅-消费模式来对数据进行增量更新。值得一提的是计算节点采用插件模式,也就意味着计算节点不一定非要是MySQL,也可以是其他类型的DB。当然计算节点因为存储的是全量数据,虽然当前采用压缩存储不过也有较大的存储空间代价。

数据均衡

介绍完RadonDB整体架构,个人对它的表存储设计和数据均衡印象深刻。通常的关系型数据库的拆分或者常见的开源proxy一般都是没有解决不同分片数据均衡的问题,而RadonDB提供了一个新的解决思路,表存储策略具体见下图:

从上图可以看到在RadonDB里创建一个以id作为分片key的表t1,表t1会默认被自动切分为32张小表,它们均匀的分散在多个存储节点上。每个小表都有一个自己的哈希区间,用于标识自己所能存储的HASH范围。通过交流发现,实际上这种拆分方式借鉴的就是redis cluster slot的存储分配策略。这样切分的最大好处就是即使一张100GB+的逻辑表,实际上在集群节点的存储会被切分成很小的多张表,这对于维护和数据迁移还是比较优雅的。


接下来我们看一下RadonDB是如何进行扩容,或者说数据均衡的,具体迁移过程也可以用如下图来说明:

绿色框里表示添加一个分片后数据的分布情况,实际上RadonDB会通过基于Go语言自研的shifter工具(源码尚未开源,以工具方式提供使用)进行并发式全量+增量的同步,当然为了尽量减少迁移的数据量,RadonDB会优先以小表进行迁移。不过这里有一个问题需要注意,在迁移最后路由切换那一刻,原表需要一个只读状态,这期间对于业务来说可能会有一个瞬间的小抖动。


总结







请到「今天看啥」查看全文