前言
之前在 Java-Interview(
https://github.com/crossoverJie/Java-Interview/blob/master/MD/Spike.md
) 中提到过秒杀架构的设计,这次基于其中的理论简单实现了一下。
本次采用循序渐进的方式逐步提高性能达到并发秒杀的效果,文章较长请准备好瓜子板凳(liushuizhang😂)。
本文所有涉及的代码:
最终架构图:
先简单根据这个图谈下请求的流转,因为后面不管怎么改进这个都是没有变的。
无限制
其实抛开秒杀这个场景来说正常的一个下单流程可以简单分为以下几步:
基于上文的架构所以我们有了以下实现:
先看看实际项目的结构:
还是和以前一样:
数据库也是只有简单的两张表模拟下单:
CREATE TABLE `stock` ( `id` int (11 ) unsigned NOT NULL AUTO_INCREMENT, `name` varchar (50 ) NOT NULL DEFAULT '' COMMENT '名称' , `count` int (11 ) NOT NULL COMMENT '库存' , `sale` int (11 ) NOT NULL COMMENT '已售' , `version` int (11 ) NOT NULL COMMENT '乐观锁,版本号' , PRIMARY KEY (`id` ) ) ENGINE =InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET =utf8;CREATE TABLE `stock_order` ( `id` int (11 ) unsigned NOT NULL AUTO_INCREMENT, `sid` int (11 ) NOT NULL COMMENT '库存ID'
, `name` varchar (30 ) NOT NULL DEFAULT '' COMMENT '商品名称' , `create_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '创建时间' , PRIMARY KEY (`id` ) ) ENGINE =InnoDB AUTO_INCREMENT=55 DEFAULT CHARSET =utf8;
web 层 controller 实现:
@Autowired private StockService stockService;@Autowired private OrderService orderService;@RequestMapping ("/createWrongOrder/{sid}" )@ResponseBody public String createWrongOrder (@PathVariable int sid) { logger.info("sid=[{}]" , sid); int id = 0 ; try { id = orderService.createWrongOrder(sid); } catch (Exception e) { logger.error("Exception" ,e); } return String.valueOf(id); }
其中 web 作为一个消费者调用看 OrderService 提供出来的 dubbo 服务。
Service 层,OrderService 实现:
首先是对 API 的实现(会在 API 提供出接口):
@Service public class OrderServiceImpl implements OrderService { @Resource (name = "DBOrderService" ) private com.crossoverJie.seconds.kill.service.OrderService orderService ; @Override public int createWrongOrder (int sid) throws Exception { return orderService.createWrongOrder(sid); } }
这里只是简单调用了 DBOrderService 中的实现,DBOrderService 才是真正的数据落地,也就是写数据库了。
DBOrderService 实现:
Transactional(rollbackFor = Exception.class)@Service (value = "DBOrderService" )public class OrderServiceImpl
implements OrderService { @Resource (name = "DBStockService" ) private com.crossoverJie.seconds.kill.service.StockService stockService; @Autowired private StockOrderMapper orderMapper; @Override public int createWrongOrder (int sid) throws Exception { Stock stock = checkStock(sid); saleStock(stock); int id = createOrder(stock); return id; } private Stock checkStock (int sid) { Stock stock = stockService.getStockById(sid); if (stock.getSale().equals(stock.getCount())) { throw new RuntimeException("库存不足" ); } return stock; } private int saleStock (Stock stock) { stock.setSale(stock.getSale() + 1 ); return stockService.updateStockById(stock); } private int createOrder (Stock stock) { StockOrder order = new StockOrder(); order.setSid(stock.getId()); order.setName(stock.getName()); int id = orderMapper.insertSelective(order); return id; } }
预先初始化了 10 条库存。
手动调用下 createWrongOrder/1 接口发现:
库存表:
订单表:
一切看起来都没有问题,数据也正常。
但是当用 JMeter 并发测试时:
测试配置是:300个线程并发,测试两轮来看看数据库中的结果:
请求都响应成功,库存确实也扣完了,但是订单却生成了 124 条记录。
这显然是典型的超卖现象。
其实现在再去手动调用接口会返回库存不足,但为时晚矣。
乐观锁更新
怎么来避免上述的现象呢?
最简单的做法自然是乐观锁了,这里不过多讨论这个,不熟悉的朋友可以看下这篇。
来看看具体实现:
其实其他的都没怎么改,主要是 Service 层。
@Override public int createOptimisticOrder (int sid) throws Exception { Stock stock = checkStock(sid); saleStockOptimistic(stock); int id = createOrder(stock); return id; }private void
saleStockOptimistic (Stock stock) { int count = stockService.updateStockByOptimistic(stock); if (count == 0 ){ throw new RuntimeException("并发更新库存失败" ) ; } }
对应的 XML:
"updateByOptimistic" parameterType="com.crossoverJie.seconds.kill.pojo.Stock" > update stock <set > sale = sale + 1, version = version + 1, set > WHERE id = AND version =
同样的测试条件,我们再进行上面的测试 /createOptimisticOrder/1:
这次发现无论是库存订单都是 OK 的。
查看日志发现:
很多并发请求会响应错误,这就达到了效果。
提高吞吐量
为了进一步提高秒杀时的吞吐量以及响应效率,这里的 web 和 Service 都进行了横向扩展。
web 利用 Nginx 进行负载。
Service 也是多台应用。
再用 JMeter 测试时可以直观的看到效果。
由于我是在阿里云的一台小水管服务器进行测试的,加上配置不高、应用都在同一台,所以并没有完全体现出性能上的优势( Nginx 做负载转发时候也会增加额外的网络消耗)。
shell 脚本实现简单的 CI
由于应用多台部署之后,手动发版测试的痛苦相信经历过的都有体会。
这次并没有精力去搭建完整的 CI CD,只是写了一个简单的脚本实现了自动化部署,希望对这方面没有经验的同学带来一点启发:
构建 web
#!/bin/bash appname="consumer" echo "input=" $appname PID=$(ps -ef | grep $appname | grep -v grep | awk '{print $2}' )for var in ${PID[@]} ;do echo "loop pid= $var " kill -9 $var done echo "kill $appname success" cd .. git pullcd SSM-SECONDS-KILL mvn -Dmaven.test.skip=true clean packageecho "build war success" cp /home/crossoverJie/SSM/SSM-SECONDS-KILL/SSM-SECONDS-KILL-WEB/target/SSM-SECONDS-KILL-WEB-2.2.0-SNAPSHOT.war /home/crossoverJie/tomcat/tomcat-dubbo-consumer-8083/webappsecho "cp tomcat-dubbo-consumer-8083/webapps ok!" cp /home/crossoverJie/SSM/SSM-SECONDS-KILL/SSM-SECONDS-KILL-WEB/target/SSM-SECONDS-KILL-WEB-2.2.0-SNAPSHOT.war /home/crossoverJie/tomcat/tomcat-dubbo-consumer-7083-slave/webappsecho "cp tomcat-dubbo-consumer-7083-slave/webapps ok!" sh /home/crossoverJie/tomcat/tomcat-dubbo-consumer-8083/bin/startup.shecho "tomcat-dubbo-consumer-8083/bin/startup.sh success" sh /home/crossoverJie/tomcat/tomcat-dubbo-consumer-7083-slave/bin/startup.shecho "tomcat-dubbo-consumer-7083-slave/bin/startup.sh success" echo "start $appname success"
构建 Service
appname="provider" echo "input=" $appname PID=$(ps -ef | grep $appname | grep -v grep | awk '{print $2}' )for var in ${PID[@]} ;do echo "loop pid= $var " kill -9 $var done echo "kill $appname success" cd .. git pullcd SSM-SECONDS-KILL mvn -Dmaven.test.skip=true clean packageecho "build war success" cp /home/crossoverJie/SSM/SSM-SECONDS-KILL/SSM-SECONDS-KILL-SERVICE/target/SSM-SECONDS-KILL-SERVICE-2.2.0-SNAPSHOT.war /home/crossoverJie/tomcat/tomcat-dubbo-provider-8080/webappsecho "cp tomcat-dubbo-provider-8080/webapps ok!" cp /home/crossoverJie/SSM/SSM-SECONDS-KILL/SSM-SECONDS-KILL-SERVICE/target/SSM-SECONDS-KILL-SERVICE-2.2.0-SNAPSHOT.war /home/crossoverJie/tomcat/tomcat-dubbo-provider-7080-slave/webappsecho "cp tomcat-dubbo-provider-7080-slave/webapps ok!" sh /home/crossoverJie/tomcat/tomcat-dubbo-provider-8080/bin/startup.shecho "tomcat-dubbo-provider-8080/bin/startup.sh success" sh /home/crossoverJie/tomcat/tomcat-dubbo-provider-7080-slave/bin/startup.shecho "tomcat-dubbo-provider-8080/bin/startup.sh success" echo "start $appname success"
之后每当我有更新,只需要执行这两个脚本就可以帮我自动构建。
都是最基础的 Linux 命令,相信大家都看得明白。
乐观锁更新 + 分布式限流
上文的结果看似没有问题,其实还差得远呢。
这里只是模拟了 300 个并发没有问题,但是当请求达到了 3000 ,3W,300W 呢?
虽说可以横向扩展可以支撑更多的请求。
但是能不能利用最少的资源解决问题呢?
其实仔细分析下会发现:
假设我的商品一共只有 10 个库存,那么无论你多少人来买其实最终也最多只有 10 人可以下单成功。
所以其中会有 99% 的请求都是无效的。
大家都知道:大多数应用数据库都是压倒骆驼的最后一根稻草。
通过 Druid 的监控来看看之前请求数据库的情况:
因为 Service 是两个应用。
数据库也有 20 多个连接。
怎么样来优化呢?
其实很容易想到的就是分布式限流(
http://crossoverjie.top/2018/04/28/sbc/sbc7-Distributed-Limit/
)。
我们将并发控制在一个可控的范围之内,然后快速失败这样就能最大程度的保护系统。
distributed-redis-tool ⬆️v1.0.3
为此还对
https://github.com/crossoverJie/distributed-redis-tool
进行了小小的升级。
因为加上该组件之后所有的请求都会经过 Redis,所以对 Redis 资源的使用也是要非常小心。
API 更新
修改之后的 API 如下:
@Configuration public class RedisLimitConfig { private Logger logger = LoggerFactory.getLogger(RedisLimitConfig.class ); @Value("${redis.limit} " ) private int limit; @Autowired private JedisConnectionFactory jedisConnectionFactory; @Bean public RedisLimit build() { RedisLimit redisLimit = new RedisLimit.Builder(jedisConnectionFactory, RedisToolsConstant.SINGLE) .limit(limit) .build(); return redisLimit; } }
这里构建器改用了 JedisConnectionFactory,所以得配合 Spring 来一起使用。
并在初始化时显示传入 Redis 是以集群方式部署还是单机(强烈建议集群,限流之后对 Redis 还是有一定的压力)。
限流实现
既然 API 更新了,实现自然也要修改:
public boolean limit() { Object connection = getConnection(); Object result = limitRequest(connection); if (FAIL_CODE != (Long) result) { return true ; } else { return false ; } } private Object limitRequest(Object connection) { Object result = null