专栏名称: 分布式实验室
最专业的Docker文章,最权威的Docker新闻。关注容器生态圈的发展。
目录
相关文章推荐
51好读  ›  专栏  ›  分布式实验室

从0开始设计Twitter系统架构

分布式实验室  · 公众号  · 后端  · 2021-12-22 07:45

正文

Twitter是全球最大的社交网络之一,如果让我们从0开始设计Twitter的系统架构,该怎么做呢?有哪些服务是必须的?有哪些点需要提前考虑?这篇文章简单介绍了设计类Twitter系统的思路并在最后给出了参考设计。原文链接:https://medium.com/interviewnoodle/twitter-system-architecture-8dafce16aec4


Twitter是全球领先的在线社交网络服务,用户可以在这里发布和阅读被称为“推文(tweets)”的短消息。在系统架构设计面试过程中,当被问及如何设计Twitter时,大多数候选人都会将其设计为单体服务。然而,将Twitter这样的大型服务设计为单体,表明候选人缺乏设计分布式系统的经验。从微服务甚至lambda(或函数)的角度来设计分布式系统在今天是很正常的选择。目前的趋势是,没有人会将新服务设计为单体,公司正逐渐将其庞大的单体服务转换为一组微服务。因此,候选人应该以微服务的方式设计Twitter。


功能需求


  1. 用户可以发布或分享新的推文(tweet)

  2. 每条推文最多不超过140个字符

  3. 用户可以删除推文,但不能更新/编辑发布的推文(写操作)

  4. 用户可以标记喜欢的推文(写操作)

  5. 用户可以关注或取消关注另一个用户(写操作),关注一个用户意味着用户可以看到其他用户在他的时间线上的推文

  6. 可以生成两种类型的时间线(读操作),用户时间线由他最后N个推文组成,主页时间线由他正在关注的用户的热门推文按照时间降序生成

  7. 用户可以根据关键字搜索推文(读操作)

  8. 用户需要有一个帐户来发布或读取推文(暂时使用外部身份服务)

  9. 用户可以注册和删除帐户

  10. Twitter支持包含文字和图片/视频的推文,但在我们当前的设计中,将只支持文本

  11. 分析/监视服务,以确定其负载、运行状况和功能

  12. 分析还可为用户提供关于关注谁、推文通知、热门话题、推送通知和分享推文的意见或建议



非功能需求


  1. 服务的高可用是最重要的需求,这意味着用户可以在自己的主页时间线上阅读推文,而感受不到任何停顿

  2. 生成时间线的时间最长不得超过半秒

  3. 不需要强一致性,只需要最终一致性,可以使用关键词数据库用于搜索基于关键词的推文

  4. 随着用户和推文的增加,系统负载也在增加,因此系统应该具有可伸缩性

  5. 持久化用户数据


现在我们来做一些计算:

  • 日活跃用户平均请求/天 = 150M*60/86400 = 100k/秒

  • 峰值用户 = 平均并发用户* 3 = 300k

  • 三月内最大峰值用户数 = 峰值用户数*2 = 600k

  • 读QPS = 300k

  • 写QPS = 5k



Twitter服务的概要设计


由于系统的复杂性,可以将其划分为若干个服务,其中包括若干个微服务。

  1. 推文服务(Tweet service)

  2. 用户时间线服务(User timeline service)

  3. 扇出服务(Fanout Service)

  4. 主页时间线服务(Home timeline service)

  5. 社交网络服务(Social graph service)

  6. 搜索服务(Search service)


下面是Twitter服务中不同逻辑组件或微服务架构。


Twitter服务的详细设计


所有微服务都可以被称为模块。

推文服务(Tweet service)

  • 接收用户推文,转发用户推文到关注者时间线和搜索服务

  • 存储用户信息,推文信息,包括用户的推文数量以及用户喜欢的状态

  • 包括应用服务器、分布式的内存缓存以及后端的分布式数据库,或者使用直接由数据库(例如Redis)支持的内存缓存



然后我们看一下Tweet服务的数据库表结构。


用户(Users)表包含用户的所有信息,推文(Tweet)表存储所有推文,Favorite_tweet表存储了喜欢的推文记录,也就是说,每当用户喜欢一条推文时,就会在Favorite_tweet表中插入一条记录。

生成唯一的推文ID


当用户调用postTweet()时,调用会发送给应用服务器。 应用服务器为该推文生成一个唯一的id,同样的机制也可以用来为推文生成短URL。 另一个方式是基于应用服务器的UUID(Universally unique identifier)。 推文ID生成后,应用服务器将该推文插入分布式缓存和数据库的tweet表中。 由于需要在执行推文的创建/更新/删除操作的同时更新缓存和数据库,所以我们使用缓存透写机制。

可扩展性设计

我们可以将分布式缓存和数据库划分为多个分区和副本。

  • 基于用户ID分片

  • 基于推文ID分片

  • 基于用户ID和推文ID进行两层/级别分片



社交网络服务(Social graph service)

  • 实现Following API,跟踪用户之间的关注关系

  • 包括应用服务器、分布式缓存和数据库

  • 用于存储用户关系的数据库表结构



Following API:

  • 将被关注用户的时间线异步合并到关注者的信息事件流中

  • 取消关注一个用户后,从关注者的事件流中异步删除他的推文

  • 异步的从信息事件流中挑选推文

  • 之所以需要异步操作,是因为这个过程比较慢,而用户在关注和取消关注其他用户时,希望很快得到反馈

  • 异步的缺点是用户在取消关注后,如果刷新信息事件流,会发现这些信息仍然存在,但最终它们会被删除


用户时间线服务(User timeline service)

  • 返回用户的时间线,以降序排列的方式包含用户所有推文。此服务可用于主页时间线或其他用户的时间线。

  • 该服务包括应用服务器和分布式内存缓存,但没有涉及该服务的数据库。

  • 用户时间线是使用包含用户推文链接列表的数据结构设计的。



  • 当用户发布一条推文时,tweet服务调用用户时间线服务,将该推文插入到用户时间线的推文列表顶部,运算复杂度为O(1)。

  • 此外,分析仪表板可以配置参数K,表示可以保留的推文个数,K默认为1000,表示保留用户时间线轴中的最后K条推文。

  • 在用户时间线列表中,推文按creationTime(创建时间)降序存储。当用户时间线列表达到最大K条推文时,最老的条目将被删除。


扇出服务(Fanout Service)

  • 将新推文转发到搜索和主页时间线服务,以及其他组件/微服务,比如趋势服务或通知服务

  • 由多个分布式队列组成

  • 当用户发送一条推文消息时,该服务把消息放入推文队列,社交网络服务必须获得用户的关注者列表,并在第二组队列中插入尽可能多的消息。对于名人用户来说,他们拥有非常多的粉丝,其粉丝数甚至超过了每次推送的阈值。那么,如何处理这个问题呢?

  • 该服务是一个先进先出的任务队列列表,处理共享相同列表的任务,并在完成后反馈给队列服务器。队列服务器是异步任务的重要组成部分,其执行的任务可能不会立即收到响应,但却能够保证最终一致性。


主页时间线服务(Home timeline service)

  • 显示用户的主页时间线

  • 包括来自其他关注的用户的推文,按照推文的creationTime(创建时间)降序显示。

  • 其设计类似于用户时间线服务。

  • 但是比用户时间线服务稍微复杂一点,因为用户将插入最新的推文,并且当推文数量超过K值时需要删除最老的推文,如果用户关注了很多其他用户,服务还需要一些机制来给不同关注用户的推文赋予不同的权重。


搜索服务(Search service)







请到「今天看啥」查看全文