专栏名称: 聊聊架构
在这里煮酒聊架构。
目录
相关文章推荐
架构师之路  ·  Google如何能搜出1分钟之前的新闻??? ... ·  23 小时前  
高可用架构  ·  程序员必备!一文讲透晋升答辩! ·  昨天  
架构师之路  ·  MySQL如何在线扩展表结构,内核原理??( ... ·  3 天前  
架构师之路  ·  我怎么知道自己适不适合做程序员?(很严肃) ·  5 天前  
51好读  ›  专栏  ›  聊聊架构

禁用Python的GC机制后,Instagram性能提升了10%

聊聊架构  · 公众号  · 架构  · 2017-01-27 10:36

正文


作者| Chenyang Wu
编辑| 刘志勇

通过关闭Python垃圾回收(Garbage Collection,GC)机制(通过回收和释放未使用的数据来回收内存),Instagram的性能提高了10%。是的,你没有听错!通过禁用GC,我们可以减少内存占用并提高CPU LLC缓存命中率。如果你想知道为什么,那么就来阅读Chenyang Wu和Min Ni为此撰写的文章(点击阅读原文查看)。

作者Chenyang Wu是Instagram的软件工程师,Min Ni是Instagram的技术经理。

我们如何管理Web服务器

Instagram的web服务器以多进程的模式运行在Django上,主进程分叉创建几十个工作进程,用来接收传入的用户请求。对于应用程序服务器,我们使用带前置模式的uWSGI来利用主进程和工作进程之间的内存共享。

为了防止Django服务器运行到OOM,uWSGI主进程提供了一种机制,当其RSS内存超过阈值时重新启动工作进程。

了解内存

我们开始研究工作RSS内存为什么在由主进程产生后迅速增长。一个观察是,即使RSS存储器以250MB开始,其共享内存下降也会非常快:在几秒钟内从250MB降到约140MB(共享内存的大小可以从/proc/PID/smaps读取)。这里的数字并没有什么实际意义,因为它们一直在变动,但共享内存丢弃的规模却很有趣:大约1/3的总内存。接下来,我们想要了解为什么共享内存在工作器产生伊始就变为每个进程的私有内存。

我们的理论:读时复制

Linux内核有一个称为写入复制(Copy-on-Write,CoW)的机制,用作分叉进程(fork)的优化。写入时复制是一种计算机程序设计领域的优化策略。其核心思想是,如果有多个调用者(callers)同时要求相同资源(如内存或磁盘上的数据存储),他们会共同获取相同的指针指向相同的资源,直到某个调用者试图修改资源的内容时,系统才会真正复制一份专用副本(private copy)给该调用者,而其他调用者所见到的最初的资源仍然保持不变。这过程对其他的调用者都是透明的(transparently)。此作法主要的优点是如果调用者没有修改该资源,就不会有副本(private copy)被创建,因此多个调用者只是读取操作时可以共享同一份资源。(有关详细信息,请参阅维基百科上的Copy_on_Write词条)。

但在Python中,由于引用了计数,事情变得有趣了。每次我们读取一个Python对象时,解释器将增加其引用计数,这本质上是对其底层数据结构的写入。这就导致了CoW。因此,使用Python,我们就进行读时复制(Copy-on-Read,CoR)!

那么问题是:我们是在写时复制不可变对象(如代码对象)么?给定PyCodeObject确实是PyObject的“子类”,那么答案显然为:是。我们的第一个想法,是禁用对PyCodeObject的引用计数。

尝试1:禁用代码对象的引用计数

在Instagram,我们先做简单的事情。考虑到这是一个实验,我们对CPython解释器做了一些小的修改,验证了引用计数对代码对象没有改变,然后将CPython应用到我们的一个生产服务器。

结果令人失望,因为共享内存没有变化。当我们试图找出原因时,我们意识到没有任何可靠的指标来证明分析是否正确,也不能证明共享内存和代码对象的副本之间的关系。显然,这里缺少一些什么东西。由此获得的经验是:在运作之前证明你的理论。

分析页面故障

当我们在Google上搜索关于Copy-on-Write的资料后,了解到Copy-on-Write与系统中的页面错误是相关联的。每个CoW在过程中触发页面错误。Linux附带的Perf工具允许记录硬件/软件系统事件,包括页面错误,甚至可以提供堆栈跟踪!

于是我们运行了一个prod服务器,重启服务器后,等待它进行分叉,得到了一个工作进程的PID,然后运行以下命令:

perf record -e page-faults -g -p

我们就有了一个新的想法,看看当页面错误如果发生在堆栈跟踪的过程中会发生什么。

结果出乎意料,并没有复制代码对象,最大的疑凶是collect,它属于gcmodule.c,并在触发垃圾回收时被调用。在阅读了GC在CPython中的工作原理后,我们得出了以下理论:

基于阈值确定性地触发CPython的GC。默认阈值非常低,因此它在很早的阶段就开始了。它维护对象的分代链接列表,并且在GC期间,链接列表被洗牌。因为链接列表结构与对象本身一起存在(就像ob_refcount),在链接列表中改写这些对象将导致页面被CoW,这是一个不幸的副作用。

尝试2:尝试禁用GC

既然是GC捅了我们一刀,那就禁用它!

我们引导脚本添加了一个gc.disable()调用,然后重启了服务器。我们重新启动了服务器,但是,很不幸!如果我们再次查看perf,将会看到gc.collect仍然被调用,并且内存仍然被复制。利用GDB的一些调试,我们发现,使用的一个第三方库(msgpack)调用gc.enable()将其恢复,因此gc.disable()在引导时被清除。

修补msgpack是我们要做的最后一件事,因为它意味着我们没有注意到其他库在未来也会做同样的事情。首先,我们需要证实禁用GS实际上是很有帮助的。答案存在于gcmodule.c中。作为gc.disable的替代,我们做了gc.set_threshold(0),这一次,没有任何库被恢复过来。

这样,我们成功地将每个工作进程的共享内存从140MB提高到225MB,并且每台机器在主机上的总内存使用量减少了8GB。这就为整个Django集群节约了25%的内存。有了这么大的头部空间,,我们能够运行更多的进程或运行带有更高的RSS内存阈值。实际上,这样的改进将Django层的吞吐量提高了10%以上。

尝试3:需要完全禁止GC

在我们尝试了一堆设置之后,我们决定在更大的范围内尝试:集群。反馈相当快,因为禁用GC后,重启Web服务器变得很慢,以至于我们的连续部署被中断了。通常重启耗时不到10秒钟,但禁用GC后,有时候,耗时会超过60秒。

2016-05-02_21:46:05.57499 WSGI app 0 (mountpoint='') ready in 115 seconds on interpreter 0x92f480 pid: 4024654 (default app)


重现这个bug非常伤脑筋,因为它不是确定性的。经过大量实验后,一个真正的re-top在顶部显示了。当发生这种情况时,主机上的可用内存骤降到接近零并跳回,强迫所有的高速缓存内存撤出。然后到所有的代码/数据需要从磁盘读取(DSK 100%)的时刻,一切都慢吞吞的。

听上去很奇怪,Python会在关闭解释器之前做最后一个GC,这会在很短的时间内,导致内存使用量产生巨大的飞跃。再者就是,我想先证明它,然后弄清楚如何正确处理它。因此,我在uWSGI的python插件中注释掉Py_Finalize的调用,问题就消失了。

但显然的是,我们不能对Py_Finalize只是一禁了之。因为我们有一堆重要的清理,要用到依赖它的atexit钩子。最后,我们所做的就是,在CPython添加一个运行时标志,来完全禁用GC。

最后,我们开始将这个做法推广到更大的规模。此后,我们在整个集群进行尝试,但是,连续部署再次被中断了。不过,这次它只是在旧CPU型号(Sandybridge)的机器上中断了,甚至更难重现。经验教训:要多测试旧式客户端/旧型号,因为他们最容易被中断。

因为我们的连续部署是一个相当快的过程,为了真正捕获发生了什么,我在rollout命令添加了一个单独的atop。这样我们就能够抓住高速缓存内存真的很低的一个时刻。所有uWSGI进程触发了很多MINFLT(minor page faults,小页面错误)。

再次通过perf得出的概要,我们再次看到了Py_Finalize。在关机时,除了最终的GC,Python做了一堆清理操作,如破坏类型对象和卸载模块。这又一次损害了共享内存。

尝试4:关闭GC的最后一步:无须清理

为什么我们需要清理?这个进程将会死掉去,我们将得到另一个替代品。我们真正关心的是清理应用程序的atexit钩子。至于Python的清理,我们不必这样做。下面是在bootstrapping脚本中的结束:

基于这个事实,atexit函数以注册表的相反顺序运行。atexit函数完成其他清除,然后调用os._exit(0)来退出最后一步的当前进程。

随着这两条线的变化,我们终于完成了整个集群的推广。在仔细调整内存阈值后,我们获得了10%的全局性能提升!

回顾

在回顾这次性能的提升时,我们有两个疑问。

首先,没有垃圾回收的话,因为所有的内存分配不会释放,Python内存就不会爆破吗?(记住,在Python内存中没有真正的堆栈,因为所有的对象都是在堆上分配的。)

幸运的是,这并非事实。Python中用于释放对象的主要机制仍然是引用计数。当一个对象被解除引用(调用Py_DECREF)时,Python运行时总是检查其引用计数是否降到零。在这种情况下,将调用对象的释放器。垃圾回收的主要目的是打破引用计数不起作用的参考周期。

打破增益

第二个问题:增益来自哪里?

禁用GC的增益是两倍:

  • 我们为每个服务器释放了大约8GB的RAM,用于为内存绑定服务器生成创建更多的工作进程,或者降低CPU绑定服务器生成的工作程序刷新率;

  • 随着每周期CPU指令(IPC)增加约10%,CPU吞吐量也随之提高。

禁用GC时,高速缓存未命中率有2~3%的下降,主要原因是IPC增加10%所致。CPU高速缓存未命中的代价太高了,因为它使CPU管道停滞。对CPU缓存命中率的微小改进通常可以显著提高IPC。使用较少的CoW,具有不同虚拟地址(在不同的工作进程中)的更多CPU高速缓存线指向相同的物理存储器地址,导致更好的高速缓存命中率。

我们可以看到,并非每个组件都按预期工作,有时,结果可能会非常令人惊讶。所以继续挖掘、四处观望,你会惊讶事情究竟是如何运作的!

今日荐文

点击下方图片即可阅读

Google发布Zipkin与Stackdriver Trace的集成功能,实现分布式应用的跟踪