专栏名称: 朱小厮的博客
著有畅销书:《深入理解Kafka》和《RabbitMQ实战指南》。公众号主要用来分享Java技术栈、Golang技术栈、消息中间件(如Kafka、RabbitMQ)、存储、大数据以及通用型技术架构等相关的技术。
目录
相关文章推荐
新闻株洲  ·  中车电动启动春季校招 ·  19 小时前  
湖南日报  ·  价格大跳水,还要继续降! ·  昨天  
株洲交通频道广播电台  ·  涉嫌危险驾驶罪!9座车挤17人,超员88.9%! ·  3 天前  
湖南建设投资集团有限责任公司  ·  满弓发力 全力以“复” | ... ·  3 天前  
51好读  ›  专栏  ›  朱小厮的博客

Redis使用不当导致应用卡死

朱小厮的博客  · 公众号  ·  · 2019-09-28 17:41

正文

点击上方“ 朱小厮的博客 ”,选择“ 设为星标

回复” 666 “获取公众号专属资料


来源:http://rrd.me/ezfTj

首先说下问题现象: 内网sandbox环境API持续1周出现应用卡死,所有api无响应现象


刚开始当测试抱怨环境响应慢的时候 ,我们重启一下应用,应用恢复正常,于是没做处理。 但是后来问题出现频率越来越频繁,越来越多的同事开始抱怨,于是感觉代码可能有问题,开始排查。


首先发现开发的本地ide没有发现问题,应用卡死时候数据库,redis都正常,并且无特殊错误日志。 开始怀疑是sandbox环境机器问题(测试环境本身就很脆!_!)


于是ssh上了服务器 执行以下命令


top


这时发现 机器还算正常,但是内心还是😖,于是打算看下jvm 堆栈信息

先看下问题应用比较耗资源的线程


执行 top -H -p 12798



找到前3个相对比较耗资源的线程


jstack 查看堆内存


jstack 12798 |grep 12799的16进制 31ff



没看出什么问题,上下10行也看看 于是执行



看到一些线程都是处于lock状态。 但没有出现业务相关的代码,忽略了。 这时候没有什么头绪。 思考一番。 决定放弃这次卡死状态的机器


为了保护事故现场 先 dump了问题进程所有堆内存,然后debug模式重启测试环境应用,打算问题再显时直接远程debug问题机器


第二天问题再现,于是通知运维nginx转发拿掉这台问题应用,自己远程debug tomcat。


自己随意找了一个接口,断点在接口入口地方,悲剧开始,什么也没有发生! API等待服务响应,没进断点。 这时候有点懵逼,冷静了一会,在入口之前的aop地方下了个断点,再debug一次,这次进了断点,f8 N次后发现在执行redis命令的时候卡主了。 继续跟,最后在到jedis的一个地方发现问题:

/**
 * Returns a Jedis instance to be used as a Redis connection. The instance can be newly created or retrieved from a
 * pool.
 * 
 * @return Jedis instance ready for wrapping into a {@link RedisConnection}.
 */

protected Jedis fetchJedisConnector() {
   try {
      if (usePool && pool != null) {
         return pool.getResource();
      }
      Jedis jedis = new Jedis(getShardInfo());
      // force initialization (see Jedis issue #82)
      jedis.connect();
      return jedis;
   } catch (Exception ex) {
      throw new RedisConnectionFailureException("Cannot get Jedis connection", ex);
   }
}


上面pool.getResource()后线程开始wait

public T getResource() {
  try {
    return internalPool.borrowObject();
  } catch (Exception e) {
    throw new JedisConnectionException("Could not get a resource from the pool", e);
  }
}


return internalPool.borrowObject();这个代码应该是一个租赁的代码接着跟


public T borrowObject(long borrowMaxWaitMillis) throws Exception {
    this.assertOpen();
    AbandonedConfig ac = this.abandonedConfig;
    if (ac != null && ac.getRemoveAbandonedOnBorrow() && this.getNumIdle() 2 && this.getNumActive() > this.getMaxTotal() - 3) {
        this.removeAbandoned(ac);
    }

    PooledObject p = null ;
    boolean blockWhenExhausted = this.getBlockWhenExhausted();
    long waitTime = 0L;

    while(p == null) {
        boolean create = false;
        if (blockWhenExhausted) {
            p = (PooledObject)this.idleObjects.pollFirst();
            if (p == null) {
                create = true;
                p = this.create();
            }

            if (p == null) {
                if (borrowMaxWaitMillis 0L) {
                    p = (PooledObject)this.idleObjects.takeFirst();
                } else {
                    waitTime = System.currentTimeMillis();
                    p = (PooledObject)this.idleObjects.pollFirst(borrowMaxWaitMillis, TimeUnit.MILLISECONDS);
                    waitTime = System.currentTimeMillis() - waitTime;
                }
            }

            if (p == null) {
                throw new NoSuchElementException("Timeout waiting for idle object");
            }

其中有段代码


if (p == null) {
    if (borrowMaxWaitMillis         p = (PooledObject)this.idleObjects.takeFirst();
    } else {
        waitTime = System.currentTimeMillis();
        p = (PooledObject)this.idleObjects.pollFirst(borrowMaxWaitMillis, TimeUnit.MILLISECONDS);
        waitTime = System.currentTimeMillis() - waitTime;
    }
}


borrowMaxWaitMillis<0会一直执行,然后一直循环了 开始怀疑这个值没有配置


找到redis pool配置,发现确实没有配置MaxWaitMillis,配置后else代码也是一个Exception 并不能解决问题


继续F8


public E takeFirst() throws InterruptedException {
    this.lock.lock();

    Object var2;
    try {
        Object x;
        while((x = this.unlinkFirst()) == null) {
            this.notEmpty.await();
        }

        var2 = x;
    } finally {
        this.lock.unlock();
    }

    return var2;
}

到这边 发现lock字眼,开始怀疑所有请求api都被阻塞了

于是再次ssh 服务器 安装 arthas ,(Arthas 是Alibaba开源的Java诊断工具)

执行thread命令


发现大量http-nio的线程waiting状态,http-nio-8083-exec-这个线程其实就是出来http请求的tomcat线程


随意找一个线程查看堆内存


thread -428


这是能确认就是api一直转圈的问题,就是这个redis获取连接的代码导致的,


解读这段内存代码  所有线程都在等 @53e5504e这个对象释放锁。 于是jstack 全局搜了一把53e5504e ,没有找到这个对象所在线程。

自此。 问题原因能确定是 redis连接获取的问题。 但是什么原因造成获取不到连接的还不能确定


再次执行 arthas 的thread -b (thread -b, 找出当前阻塞其他线程的线程)



没有结果。 这边和想的不一样,应该是能找到一个阻塞线程的,于是看了下这个命令的文档,发现有下面的一句话



好吧,我们刚好是后者。


再次整理下思路。 这次修改redis pool 配置,将获取连接超时时间设置为2s,然后等问题再次复现时观察应用最后正常时干过什么。


添加一下配置


JedisConnectionFactory jedisConnectionFactory = new JedisConnectionFactory();
.......
JedisPoolConfig config = new  JedisPoolConfig();
config.setMaxWaitMillis(2000);
.......
jedisConnectionFactory.afterPropertiesSet();

重启服务,等待。


又过一天,再次复现。


ssh 服务器,检查tomcat accesslog ,发现大量api 请求出现500。


org.springframework.data.redis.RedisConnectionFailureExceptionCannot get Jedis connectionnested exception is redis.clients.jedis.exceptions.JedisConnectionExceptionCould not get a resource fr
om the pool
    at org.springframework.data.redis.connection.jedis.JedisConnectionFactory.fetchJedisConnector(JedisConnectionFactory.java:140)
    at org.springframework.data.redis.connection.jedis.JedisConnectionFactory.getConnection(JedisConnectionFactory.java:229)
    at org.springframework.data.redis.connection.jedis.JedisConnectionFactory.getConnection(JedisConnectionFactory.java:57)
    at org.springframework.data.redis.core.RedisConnectionUtils.doGetConnection(RedisConnectionUtils.java:128)
    at org.springframework.data.redis.core.RedisConnectionUtils.getConnection(RedisConnectionUtils.java:91)
    at org.springframework.data.redis.core.RedisConnectionUtils.getConnection(RedisConnectionUtils.java:78)
    at org.springframework.data.redis.core.RedisTemplate.execute(RedisTemplate.java:177)
    at org.springframework.data.redis.core.RedisTemplate.execute(RedisTemplate.java:152)






请到「今天看啥」查看全文