专栏名称: 石杉的架构笔记
专注原创、用心雕琢!十余年BAT一线大厂架构经验倾囊相授
目录
相关文章推荐
l 看齐 l  ·  刚刚!王曼昱夺冠! ·  9 小时前  
l 看齐 l  ·  刚刚!王曼昱夺冠! ·  9 小时前  
中国基金报  ·  证监会出手,重罚! ·  2 天前  
中国基金报  ·  今夜,大跳水! ·  3 天前  
中国基金报  ·  华为,重磅!“黑科技”来了 ·  3 天前  
51好读  ›  专栏  ›  石杉的架构笔记

没那么简单的分库分表:高并发下数据库架构设计的那些坑!

石杉的架构笔记  · 公众号  ·  · 2020-10-30 08:30

正文



我的新课 《C2C 电商系统微服务架构120天实战训练营》 在公众号 儒猿技术窝 上线了,感兴趣的同学,可以长按扫描下方二维码了解课程详情:

课程大纲请参见文末

目录:

  • 用一个创业公司的发展作为背景引入

  • 用多台服务器来分库支撑高并发读写

  • 大量分表来保证海量数据下查询性能

  • 读写分离来支撑按需扩容及性能提升

  • 高并发下的数据库架构设计总结


这篇文章,我们来聊一下对于一个支撑日活百万用户的高并系统,他的数据库架构应该如何设计?


看到这个题目,很多人第一反应就是: 分库分表啊!


但是实际上,数据库层面的分库分表到底是用来干什么的,他的不同的作用如何应对不同的场景,我觉得很多同学可能都没搞清楚。


(1)用一个创业公司的发展作为背景引入


假如我们现在是一个小创业公司,注册用户就20万,每天活跃用户就1万,每天单表数据量就1000,然后高峰期每秒钟并发请求最多就10。


天哪!就这种系统,随便找一个有几年工作经验的高级工程师,然后带几个年轻工程师,随便干干都可以做出来。


因为这样的系统,实际上主要就是在前期快速的进行业务功能的开发,搞一个单块系统部署在一台服务器上,然后连接一个数据库就可以了。


接着大家就是不停的在一个工程里填充进去各种业务代码,尽快把公司的业务支撑起来,如下图所示。


结果呢,没想到我们运气这么好,碰上个优秀的CEO带着我们走上了康庄大道!


公司业务发展迅猛,过了几个月,注册用户数达到了2000万!每天活跃用户数100万!每天单表新增数据量达到50万条!高峰期每秒请求量达到1万!


同时公司还顺带着融资了两轮,估值达到了惊人的几亿美金!一只朝气蓬勃的幼年独角兽的节奏!


好吧,现在大家感觉压力已经有点大了,为啥呢?


因为每天单表新增50万条数据,一个月就多1500万条数据,一年下来单表会达到上亿条数据。


经过一段时间的运行,现在咱们单表已经两三千万条数据了,勉强还能支撑着。


但是,眼见着系统访问数据库的性能怎么越来越差呢,单表数据量越来越大,拖垮了一些复杂查询SQL的性能啊!


然后高峰期请求现在是每秒1万,咱们的系统在线上部署了20台机器,平均每台机器每秒支撑500请求,这个还能抗住,没啥大问题。 但是数据库层面呢?


如果说此时你还是一台数据库服务器在支撑每秒上万的请求,负责任的告诉你,每次高峰期会出现下述问题:


  • 你的数据库服务器的磁盘IO、网络带宽、CPU负载、内存消耗,都会达到非常高的情况,数据库所在服务器的整体负载会非常重,甚至都快不堪重负了


  • 高峰期时,本来你单表数据量就很大,SQL性能就不太好,这时加上你的数据库服务器负载太高导致性能下降,就会发现你的SQL性能更差了


  • 最明显的一个感觉,就是你的系统在高峰期各个功能都运行的很慢,用户体验很差,点一个按钮可能要几十秒才出来结果


  • 如果你运气不太好,数据库服务器的配置不是特别的高的话,弄不好你还会经历数据库宕机的情况,因为负载太高对数据库压力太大了


(2)多台服务器分库支撑高并发读写


首先我们先考虑第一个问题, 数据库每秒上万的并发请求应该如何来支撑呢? 要搞清楚这个问题,先得明白一般数据库部署在什么配置的服务器上。


通常来说,假如你用普通配置的服务器来部署数据库,那也起码是16核32G的机器配置。


这种非常普通的机器配置部署的数据库,一般线上的经验是:不要让其每秒请求支撑超过2000,一般控制在2000左右。


控制在这个程度,一般数据库负载相对合理,不会带来太大的压力,没有太大的宕机风险。


所以首先第一步,就是在上万并发请求的场景下,部署个5台服务器,每台服务器上都部署一个数据库实例。


然后每个数据库实例里,都创建一个一样的库,比如说订单库。 此时在5台服务器上都有一个订单库,名字可以类似为: db_order_01,db_order_02,等等。


然后每个订单库里,都有一个相同的表,比如说订单库里有订单信息表,那么此时5个订单库里都有一个订单信息表。


比如db_order_01库里就有一个tb_order_01表,db_order_02库里就有一个tb_order_02表。


这就实现了一个基本的分库分表的思路,原来的一台数据库服务器变成了5台数据库服务器,原来的一个库变成了5个库,原来的一张表变成了5个表。


然后你在写入数据的时候,需要借助数据库中间件,比如sharding-jdbc,或者是mycat,都可以。


你可以根据比如订单id来hash后按5取模,比如每天订单表新增50万数据,此时其中10万条数据会落入db_order_01库的tb_order_01表,另外10万条数据会落入db_order_02库的tb_order_02表,以此类推。


这样就可以把数据均匀分散在5台服务器上了,查询的时候,也可以通过订单id来hash取模,去对应的服务器上的数据库里,从对应的表里查询那条数据出来即可。


依据这个思路画出的图如下所示,大家可以看看。



做这一步有什么好处呢? 第一个好处,原来比如订单表就一张表,这个时候不就成了5张表了么,那么每个表的数据就变成1/5了。


假设订单表一年有1亿条数据,此时5张表里每张表一年就2000万数据了。 那么假设当前订单表里已经有2000万数据了,此时做了上述拆分,每个表里就只有400万数据了。


而且每天新增50万数据的话,那么每个表才新增10万数据,这样是不是初步缓解了单表数据量过大影响系统性能的问题?


另外就是每秒1万请求到5台数据库上,每台数据库就承载每秒2000的请求,是不是一下子把 每台数据库服务器的并发请求降低到了安全范围内 这样,降低了数据库的高峰期负载,同时还保证了高峰期的性能。



(3)大量分表来保证海量数据下的查询性能


但是上述的数据库架构还有一个问题,那就是单表数据量还是过大,现在订单表才分为了5张表,那么如果订单一年有1亿条,每个表就有2000万条,这也还是太大了。 所以还应该继续分表,大量分表。


比如可以把订单表一共拆分为1024张表,这样1亿数据量的话,分散到每个表里也就才10万量级的数据量,然后这上千张表分散在5台数据库里就可以了。


在写入数据的时候,需要做 两次路由 ,先对订单id hash后对数据库的数量取模,可以路由到一台数据库上,然后再对那台数据库上的表数量取模,就可以路由到数据库上的一个表里了。


通过这个步骤,就可以让每个表里的数据量非常小,每年1亿数据增长,但是到每个表里才10万条数据增长,这个系统运行10年,每个表里可能才百万级的数据量。


这样可以一次性为系统未来的运行做好充足的准备,看下面的图,一起来感受一下:

(4)读写分离来支撑按需扩容以及性能提升


这个时候整体效果已经挺不错了,大量分表的策略保证可能未来10年,每个表的数据量都不会太大,这可以保证单表内的SQL执行效率和性能。


然后多台数据库的拆分方式,可以保证每台数据库服务器承载一部分的读写请求,降低每台服务器的负载。


但是此时还有一个问题,假如说每台数据库服务器承载每秒2000的请求,然后其中400请求是写入,1600请求是查询。 也就是说,增删改的SQL才占到了20%的比例,80%的请求是查询。







请到「今天看啥」查看全文


推荐文章
l 看齐 l  ·  刚刚!王曼昱夺冠!
9 小时前
l 看齐 l  ·  刚刚!王曼昱夺冠!
9 小时前
中国基金报  ·  证监会出手,重罚!
2 天前
中国基金报  ·  今夜,大跳水!
3 天前
中国基金报  ·  华为,重磅!“黑科技”来了
3 天前
强国梦  ·  九张图,让你远离负能量
8 年前
人像摄影  ·  把趣味植入:文森特摄影作品赏
8 年前