(点击
上方蓝字
,快速关注我们)
来源:xybaby
http://www.cnblogs.com/xybaby/p/7491656.html
如有好文章投稿,请点击 → 这里了解详情
Python使用引用计数和垃圾回收来做内存管理,前面也写过一遍文章《Python内存优化》,介绍了在python中,如何profile内存使用情况,并做出相应的优化。本文介绍两个更致命的问题:内存泄露与循环引用。内存泄露是让所有程序员都闻风丧胆的问题,轻则导致程序运行速度减慢,重则导致程序崩溃;而循环引用是使用了引用计数的数据结构、编程语言都需要解决的问题。本文揭晓这两个问题在python语言中是如何存在的,然后试图利用gc模块和objgraph来解决这两个问题。
注意:本文的目标是Cpython,测试代码都是运行在Python2.7。另外,本文不考虑C扩展造成的内存泄露,这是另一个复杂且头疼的问题。
一分钟版本
-
python使用引用计数和垃圾回收来释放(free)Python对象
-
引用计数的优点是原理简单、将消耗均摊到运行时;缺点是无法处理循环引用
-
Python垃圾回收用于处理循环引用,但是无法处理循环引用中的对象定义了__del__的情况,而且每次回收会造成一定的卡顿
-
gc module是python垃圾回收机制的接口模块,可以通过该module启停垃圾回收、调整回收触发的阈值、设置调试选项
-
如果没有禁用垃圾回收,那么Python中的内存泄露有两种情况:要么是对象被生命周期更长的对象所引用,比如global作用域对象;要么是循环引用中存在__del__
-
使用gc module、objgraph可以定位内存泄露,定位之后,解决很简单
-
垃圾回收比较耗时,因此在对性能和内存比较敏感的场景也是无法接受的,如果能解除循环引用,就可以禁用垃圾回收。
-
使用gc module的DEBUG选项可以很方便的定位循环引用,解除循环引用的办法要么是手动解除,要么是使用weakref
python内存管理
Python中,一切都是对象,又分为mutable和immutable对象。二者区分的标准在于是否可以原地修改,“原地“”可以理解为相同的地址。可以通过id()查看一个对象的“地址”,如果通过变量修改对象的值,但id没发生变化,那么就是mutable,否则就是immutable。比如:
>>>
a
=
5
;
id
(
a
)
35170056
>>>
a
=
6
;
id
(
a
)
35170044
>>>
lst
=
[
1
,
2
,
3
];
id
(
lst
)
39117168
>>>
lst
.
append
(
4
);
id
(
lst
)
39117168
a指向的对象(int类型)就是immutable, 赋值语句只是让变量a指向了一个新的对象,因为id发生了变化。而lst指向的对象(list类型)为可变对象,通过方法(append)可以修改对象的值,同时保证id一致。
判断两个变量是否相等(值相同)使用==, 而判断两个变量是否指向同一个对象使用 is。比如下面a1 a2这两个变量指向的都是空的列表,值相同,但是不是同一个对象。
>>>
a1
,
a2
=
[],
[]
>>>
a1
==
a2
True
>>>
a1
is
a2
False
为了避免频繁的申请、释放内存,避免大量使用的小对象的构造析构,python有一套自己的内存管理机制。在巨著《Python源码剖析》中有详细介绍,在python源码obmalloc.h中也有详细的描述。如下所示:
可以看到,python会有自己的内存缓冲池(layer2)以及对象缓冲池(layer3)。在Linux上运行过Python服务器的程序都知道,python不会立即将释放的内存归还给操作系统,这就是内存缓冲池的原因。而对于可能被经常使用、而且是immutable的对象,比如较小的整数、长度较短的字符串,python会缓存在layer3,避免频繁创建和销毁。例如:
>>>
a
,
b
=
1
,
1
>>>
a
is
b
True
>>>
a
,
b
=
(),
()
>>>
a
is
b
True
>>>
a
,
b
=
{},
{}
>>>
a
is
b
False
本文并不关心python是如何管理内存块、如何管理小对象,感兴趣的读者可以参考伯乐在线和csdn上的这两篇文章。
本文关心的是,一个普通的对象的生命周期,更明确的说,对象是什么时候被释放的。当一个对象理论上(或者逻辑上)不再被使用了,但事实上没有被释放,那么就存在内存泄露;当一个对象事实上已经不可达(unreachable),即不能通过任何变量找到这个对象,但这个对象没有立即被释放,那么则可能存在循环引用。
引用计数
引用计数(References count),指的是每个Python对象都有一个计数器,记录着当前有多少个变量指向这个对象。
将一个对象直接或者间接赋值给一个变量时,对象的计数器会加1;当变量被del删除,或者离开变量所在作用域时,对象的引用计数器会减1。当计数器归零的时候,代表这个对象再也没有地方可能使用了,因此可以将对象安全的销毁。Python源码中,通过Py_INCREF和Py_DECREF两个宏来管理对象的引用计数,代码在object.h
#define Py_INCREF(op) ( \
_Py_INC_REFTOTAL
_Py_REF_DEBUG
_
COMMA
\
((
PyObject*
)(
op
))
->
ob_refcnt
++
)
#define Py_DECREF(op) \
do
{
\
if
(
_Py_DEC_REFTOTAL
_Py_REF_DEBUG
_
COMMA
\
--
((
PyObject*
)(
op
))
->
ob_refcnt
!=
0
)
\
_Py_CHECK_REFCNT
(
op
)
\
else
\
_Py_Dealloc
((
PyObject *
)(
op
));
\
}
while
(
0
)
通过sys.getrefcount(obj)对象可以获得一个对象的引用数目,返回值是真实引用数目加1(加1的原因是obj被当做参数传入了getrefcount函数),例如:
>>>
import
sys
>>>
s
=
'asdf'
>>>
sys
.
getrefcount
(
s
)
2
>>>
a
=
1
>>>
sys
.
getrefcount
(
a
)
605
从对象1的引用计数信息也可以看到,python的对象缓冲池会缓存十分常用的immutable对象,比如这里的整数1。
引用计数的优点在于原理通俗易懂;且将对象的回收分布在代码运行时:一旦对象不再被引用,就会被释放掉(be freed),不会造成卡顿。但也有缺点:额外的字段(ob_refcnt);频繁的加减ob_refcnt,而且可能造成连锁反应。但这些缺点跟循环引用比起来都不算事儿。
什么是循环引用,就是一个对象直接或者间接引用自己本身,引用链形成一个环。且看下面的例子:
# -*- coding: utf-8 -*-
import
objgraph
,
sys
class
OBJ
(
object
)
:
pass
def show_direct_cycle_reference
()
:
a
=
OBJ
()
a
.
attr
=
a
objgraph
.
show_backrefs
(
a
,
max_depth
=
5
,
filename
=
"direct.dot"
)
def show_indirect_cycle_reference
()
:
a
,
b
=
OBJ
(),
OBJ
()
a
.
attr_b
=
b
b
.
attr_a
=
a
objgraph
.
show_backrefs
(
a
,
max_depth
=
5
,
filename
=
"indirect.dot"
)
if
__name__
==
'__main__'
:
if
len
(
sys
.
argv
)
>
1
:
show_direct_cycle_reference
()
else
:
show_indirect_cycle_reference
()
运行上面的代码,使用graphviz工具集(本文使用的是dotty)打开生成的两个文件,direct.dot 和 indirect.dot,得到下面两个图
通过属性名(attr, attr_a, attr_b)可以很清晰的看出循环引用是怎么产生的
前面已经提到,对于一个对象,当没有任何变量指向自己时,引用计数降到0,就会被释放掉。我们以上面左边那个图为例,可以看到,红框里面的OBJ对象想在有两个引用(两个入度),分别来自帧对象frame(代码中,函数局部空间持有对OBJ实例的引用)、attr变量。我们再改一下代码,在函数运行技术之后看看是否还有OBJ类的实例存在,引用关系是怎么样的:
# -*- coding: utf-8 -*-
import
objgraph
,
sys
class
OBJ
(
object
)
:
pass
def direct_cycle_reference
()
:
a
=
OBJ
()
a
.
attr
=
a
if
__name__
==
'__main__'
:
direct_cycle_reference
()
objgraph
.
show_backrefs
(
objgraph
.
by_type
(
'OBJ'
)[
0
],
max_depth
=
5
,
filename
=
"direct.dot"
修改后的代码,OBJ实例(a)存在于函数的local作用域。因此,当函数调用结束之后,来自帧对象frame的引用被解除。从图中可以看到,当前对象的计数器(入度)为1,按照引用计数的原理,是不应该被释放的,但这个对象在函数调用结束之后就是事实上的垃圾,这个时候就需要另外的机制来处理这种情况了。
python的世界,很容易就会出现循环引用,比如标准库Collections中OrderedDict的实现(已去掉无关注释):
class
OrderedDict
(
dict
)
:
def __init__
(
self
,
*
args
,
**
kwds
)
:
if
len
(
args
)
>
1
:
raise TypeError
(
'expected at most 1 arguments, got %d'
%
len
(
args
))
try
:
self
.
__root
except
AttributeError
:
self
.
__root
=
root
=
[]
# sentinel node
root
[
:
]
=
[
root
,
root
,
None
]
self
.
__map
=
{}
self
.
__update
(
*
args
,
**
kwds
)
注意第8、9行,root是一个列表,列表里面的元素之自己本身!
垃圾回收
这里强调一下,
本文中的的垃圾回收是狭义的垃圾回收,是指当出现循环引用,引用计数无计可施的时候采取的垃圾清理算法。
在python中,使用标记-清除算法(mark-sweep)和分代(generational)算法来垃圾回收。在《Garbage Collection for Python》一文中有对标记回收算法,然后在《Python内存管理机制及优化简析》一文中,有对前文的翻译,并且有分代回收的介绍。在这里,引用后面一篇文章:
在Python中, 所有能够引用其他对象的对象都被称为容器(container). 因此只有容器之间才可能形成循环引用. Python的垃圾回收机制利用了这个特点来寻找需要被释放的对象. 为了记录下所有的容器对象, Python将每一个 容器都链到了一个双向链表中, 之所以使用双向链表是为了方便快速的在容器集合中插入和删除对象. 有了这个 维护了所有容器对象的双向链表以后, Python在垃圾回收时使用如下步骤来寻找需要释放的对象:
-
对于每一个容器对象, 设置一个gc_refs值, 并将其初始化为该对象的引用计数值.
-
对于每一个容器对象, 找到所有其引用的对象, 将被引用对象的gc_refs值减1.
-
执行完步骤2以后所有gc_refs值还大于0的对象都被非容器对象引用着, 至少存在一个非循环引用. 因此 不能释放这些对象, 将他们放入另一个集合.
-
在步骤3中不能被释放的对象, 如果他们引用着某个对象, 被引用的对象也是不能被释放的, 因此将这些 对象也放入另一个集合中.
-
此时还剩下的对象都是无法到达的对象. 现在可以释放这些对象了.
关于分代回收:
除此之外, Python还将所有对象根据’生存时间’分为3代, 从0到2. 所有新创建的对象都分配为第0代. 当这些对象 经过一次垃圾回收仍然存在则会被放入第1代中. 如果第1代中的对象在一次垃圾回收之后仍然存货则被放入第2代. 对于不同代的对象Python的回收的频率也不一样. 可以通过gc.set_threshold(threshold0[, threshold1[, threshold2]]) 来定义. 当Python的垃圾回收器中新增的对象数量减去删除的对象数量大于threshold0时, Python会对第0代对象 执行一次垃圾回收. 每当第0代被检查的次数超过了threshold1时, 第1代对象就会被执行一次垃圾回收. 同理每当 第1代被检查的次数超过了threshold2时, 第2代对象也会被执行一次垃圾回收.
注意,threshold0,threshold1,threshold2的意义并不相同!
为什么要分代呢,这个算法的根源来自于weak generational hypothesis。这个假说由两个观点构成:首先是年亲的对象通常死得也快,比如大量的对象都存在于local作用域;而老对象则很有可能存活更长的时间,比如全局对象,module, class。
垃圾回收的原理就如上面提示,详细的可以看Python源码,只不过事实上垃圾回收器还要考虑__del__,弱引用等情况,会略微复杂一些。
什么时候会触发垃圾回收呢,有三种情况:
-
达到了垃圾回收的阈值,Python虚拟机自动执行
-
手动调用gc.collect()
-
Python虚拟机退出的时候
对于垃圾回收,有两个非常重要的术语,那就是reachable与collectable(当然还有与之对应的unreachable与uncollectable),后文也会大量提及。
reachable是针对python对象而言,如果从根集(root)能到找到对象,那么这个对象就是reachable,与之相反就是unreachable,事实上就是只存在于循环引用中的对象,Python的垃圾回收就是针对unreachable对象。
而collectable是针对unreachable对象而言,如果这种对象能被回收,那么是collectable;如果不能被回收,即循环引用中的对象定义了__del__, 那么就是uncollectable。Python垃圾回收对uncollectable对象无能为力,会造成事实上的内存泄露。
gc module
这里的gc(garbage collector)是Python 标准库,该module提供了与上一节“垃圾回收”内容相对应的接口。通过这个module,可以开关gc、调整垃圾回收的频率、输出调试信息。gc模块是很多其他模块(比如objgraph)封装的基础,在这里先介绍gc的核心API。
gc.enable(); gc.disable(); gc.isenabled()
开启gc(默认情况下是开启的);关闭gc;判断gc是否开启
gc.collection()
执行一次垃圾回收,不管gc是否处于开启状态都能使用
gc.set_threshold(t0, t1, t2); gc.get_threshold()
设置垃圾回收阈值; 获得当前的垃圾回收阈值
注意:gc.set_threshold(0)也有禁用gc的效果
gc.get_objects()
返回所有被垃圾回收器(collector)管理的对象。这个函数非常基础!只要python解释器运行起来,就有大量的对象被collector管理,因此,该函数的调用比较耗时!
比如,命令行启动python
>>>
import
gc
>>>
len
(
gc
.
get_objects
())
3749
gc.get_referents(*obj)
返回obj对象直接指向的对象
gc.get_referrers(*obj)
返回所有直接指向obj的对象
下面的实例展示了get_referents与get_referrers两个函数
>>>
class
OBJ
(
object
)
:
...
pass
...
>>>
a
,
b
=
OBJ
(),
OBJ
()
>>>
hex
(
id
(
a
)),
hex
(
id
(
b
))
(
'0x250e730'
,
'0x250e7f0'
)
>>>
gc
.
get_referents
(
a
)
[
<
class
'__main__.OBJ'
>
]
>>>
a
.
attr
=
b
>>>
gc
.
get_referents
(
a
)
[{
'attr'
: <
__main__
.
OBJ object
at
0x0250E7F0
>
},
<
class
'__main__.OBJ'
>
]
>>>
gc
.
get_referrers
(
b
)
[{
'attr'
: <
__main__
.
OBJ object
at
0x0250E7F0
>
},
{
'a'
: <
__main__
.
OBJ object
at
0x0250E730
>
,
'b'
: <
__main__
.
OBJ object
at
0x0250E7F0
>
,
'OBJ'
: <
class
'__main__.OBJ'
>
,
'__builtins__'
: <
modu
le
'__builtin__'
(
built
-
in
)
>
,
'__package__'
:
None
,
'gc'
: <
module
'gc'
(
built
-
in
)
>
,
'__name__'
:
'__main__'
,
'__doc__'
:
None
}]
>>>
a, b都是类OBJ的实例,执行”a.attr = b”之后,a就通过‘’attr“这个属性指向了b。
gc.set_debug(flags)
设置调试选项,非常有用,常用的flag组合包含以下
gc.DEBUG_COLLETABLE: 打印可以被垃圾回收器回收的对象
gc.DEBUG_UNCOLLETABLE: 打印无法被垃圾回收器回收的对象,即定义了__del__的对象
gc.DEBUG_SAVEALL:当设置了这个选项,可以被拉起回收的对象不会被真正销毁(free),而是放到gc.garbage这个列表里面,利于在线上查找问题
内存泄露
既然Python中通过引用计数和垃圾回收来管理内存,那么什么情况下还会产生内存泄露呢?有两种情况:
第一是对象被另一个生命周期特别长的对象所引
用,比如网络服务器,可能存在一个全局的单例ConnectionManager,管理所有的连接Connection,如果当Connection理论上不再被使用的时候,没有从ConnectionManager中删除,那么就造成了内存泄露。
第二是循环引用中的对象定义了__del__函数
,这个在《程序员必知的Python陷阱与缺陷列表》一文中有详细介绍,简而言之,如果定义了__del__函数,那么在循环引用中Python解释器无法判断析构对象的顺序,因此就不错处理。
在任何环境,不管是服务器,客户端,内存泄露都是非常严重的事情。
如果是线上服务器,那么一定得有监控,如果发现内存使用率超过设置的阈值则立即报警,尽早发现些许还有救。当然,谁也不希望在线上修复内存泄露,这无疑是给行驶的汽车换轮子,因此尽量在开发环境或者压力测试环境发现并解决潜在的内存泄露。在这里,发现问题最为关键,只要发现了问题,解决问题就非常容易了,因为按照前面的说法,出现内存泄露只有两种情况,在第一种情况下,只要在适当的时机解除引用就可以了;在第二种情况下,要么不再使用__del__函数,换一种实现方式,要么解决循环引用。
那么怎么查找哪里存在内存泄露呢?武器就是两个库:gc、objgraph
在上面已经介绍了gc这个模块,理论上,通过gc模块能够拿到所有的被garbage collector管理的对象,也能知道对象之间的引用和被引用关系,就可以画出对象之间完整的引用关系图。但事实上还是比较复杂的,因为在这个过程中一不小心又会引入新的引用关系,所以,有好的轮子就直接用吧,那就是objgraph。
objgraph
objgraph的实现调用了gc的这几个函数:gc.get_objects(), gc.get_referents(), gc.get_referers(),然后构造出对象之间的引用关系。objgraph的代码和文档都写得比较好,建议一读。
下面先介绍几个十分实用的API
def count(typename)
返回该类型对象的数目,其实就是通过gc.get_objects()拿到所用的对象,然后统计指定类型的数目。
def by_type(typename)
返回该类型的对象列表。线上项目,可以用这个函数很方便找到一个单例对象
def show_most_common_types(limits = 10)
打印实例最多的前N(limits)个对象,这个函数非常有用。在《Python内存优化》一文中也提到,该函数能发现可以用slots进行内存优化的对象
def show_growth()
统计自上次调用以来增加得最多的对象,这个函数非常有利于发现潜在的内存泄露。函数内部调用了gc.collect(),因此即使有循环引用也不会对判断造成影响。
值得一提,该函数的实现非常有意思,简化后的代码如下:
def show_growth
(
limit
=
10
,
peak_stats
=
{},
shortnames
=
True
,
file
=
None
)
:
gc
.
collect
()
stats
=
typestats
(
shortnames
=
shortnames
)
deltas
=
{}
for
name
,
count
in
iteritems
(
stats
)
:
old_count
=
peak_stats
.
get
(
name
,
0
)
if
count
>
old_count
:
deltas
[
name
]
=
count
-
old_count
peak_stats
[
name
]
=
count
deltas
=
sorted
(
deltas
.
items
(),
key
=
operator
.
itemgetter
(
1
),
reverse
=
True
)
注意形参peak_stats使用了可变参数作为默认形参,这样很方便记录上一次的运行结果。在《程序员必知的Python陷阱与缺陷列表》中提到,使用可变对象做默认形参是最为常见的python陷阱,但在这里,却成为了方便的利器!
def show_backrefs()
生产一张有关objs的引用图,看出看出对象为什么不释放,后面会利用这个API来查内存泄露。
该API有很多有用的参数,比如层数限制(max_depth)、宽度限制(too_many)、输出格式控制(filename output)、节点过滤(filter, extra_ignore),建议使用之间看一些document。
def find_backref_chain(obj, predicate, max_depth=20, extra_ignore=()):
找到一条指向obj对象的最短路径,且路径的头部节点需要满足predicate函数 (返回值为True)
可以快捷、清晰指出 对象的被引用的情况,后面会展示这个函数的威力
def show_chain():
将find_backref_chain 找到的路径画出来, 该函数事实上调用show_backrefs,只是排除了所有不在路径中的节点。
查找内存泄露
在这一节,介绍如何利用objgraph来查找内存是怎么泄露的
如果我们怀疑一段代码、一个模块可能会导致内存泄露,那么首先调用一次obj.show_growth(),然后调用相应的函数,最后再次调用obj.show_growth(),看看是否有增加的对象。比如下面这个简单的例子:
# -*- coding: utf-8 -*-
import objgraph
_cache
=
[]
class
OBJ
(
object
)
:
pass
def func_to_leak
()
:
o
=
OBJ
()
_cache
.
append
(
o
)
# do something with o, then remove it from _cache
if
True
:
# this seem ugly, but it always exists
return
_cache
.
remove
(
o
)
if
__name__
==
'__main__'
:
objgraph
.
show_growth
()
try
:
func_to_leak
()
except
:
pass
print
'after call func_to_leak'
objgraph
.
show_growth
()
运行结果(我们只关心后一次show_growth的结果)如下
wrapper
_
descriptor
1073
+
13
member
_
descriptor
204
+
5
getset
_
descriptor
168
+
5
weakref
338
+
3
dict
458
+
3
OBJ
1
+
1
代码很简单,函数开始的时候讲对象加入了global作用域的_cache列表,然后期望是在函数退出之前从_cache删除,但是由于提前返回或者异常,并没有执行到最后的remove语句。从运行结果可以发现,调用函数之后,增加了一个类OBJ的实例,然而理论上函数调用结束之后,所有在函数作用域(local)中声明的对象都改被销毁,因此这里就存在内存泄露。
当然,在实际的项目中,我们也不清楚泄露是在哪段代码、哪个模块中发生的,而且往往是发生了内存泄露之后再去排查,这个时候使用obj.show_most_common_types就比较合适了,如果一个自定义的类的实例数目特别多,那么就可能存在内存泄露。如果在压力测试环境,停止压测,调用gc.collet,然后再用obj.show_most_common_types查看,如果对象的数目没有相应的减少,那么肯定就是存在泄露。
当我们定位了哪个对象发生了内存泄露,那么接下来就是分析怎么泄露的,引用链是怎么样的,这个时候就该show_backrefs出马了,还是以之前的代码为例,稍加修改:
import objgraph
_cache
=
[]
class
OBJ
(
object
)
:
pass
def func_to_leak
()
:
o
=
OBJ
()
_cache
.
append
(
o
)
# do something with o, then remove it from _cache
if
True
:
# this seem ugly, but it always exists
return
_cache
.
remove
(
o
)
if
__name__
==
'__main__'
:
try
:
func_to_leak
()
except
:
pass
objgraph
.
show_backrefs
(
objgraph
.
by_type
(
'OBJ'
)[
0
],
max_depth
=
10
,
filename
=
'obj.dot'
)
show_backrefs查看内存泄露
注意,上面的代码中,max_depth参数非常关键,如果这个参数太小,那么看不到完整的引用链,如果这个参数太大,运行的时候又非常耗时间。
然后打开dot文件,结果如下
可以看到泄露的对象(红框表示),是被一个叫_cache的list所引用,而_cache又是被__main__这个module所引用。
对于示例代码,dot文件的结果已经非常清晰,但是对于真实项目,引用链中的节点可能成百上千,看起来非常头大,下面用tornado起一个最最简单的web服务器(代码不知道来自哪里,且没有内存泄露,这里只是为了显示引用关系),然后绘制socket的引用关关系图,代码和引用关系图如下:
import objgraph
import errno
import functools
import
tornado
.
ioloop
import socket
def connection_ready
(
sock
,
fd
,
events
)
:
while
True
:
try
:
connection
,
address
=
sock
.
accept
()
print
'connection_ready'
,
address
except
socket
.
error
as
e
:
if
e
.
args
[
0
]
not
in
(
errno
.
EWOULDBLOCK
,
errno
.
EAGAIN
)
:
raise
return
connection
.
setblocking
(
0
)
# do sth with connection
if
__name__
==
'__main__'
:
sock
=
socket
.
socket
(
socket
.
AF_INET
,
socket
.
SOCK_STREAM
,
0
)
sock
.
setsockopt
(
socket
.
SOL_SOCKET
,
socket
.
SO_REUSEADDR
,
1
)
sock
.
setblocking
(
0
)
sock
.
bind
((
""
,
8888
))
sock
.
listen
(
128
)
io_loop
=
tornado
.
ioloop
.
IOLoop
.
current
()
callback
=
functools
.
partial
(
connection_ready
,
sock
)
io_loop
.
add_handler
(
sock
.
fileno
(),
callback
,
io_loop
.
READ
)
#objgraph.show_backrefs(sock, max_depth = 10, filename = 'tornado.dot')
# objgraph.show_chain(
# objgraph.find_backref_chain(
# sock,
# objgraph.is_proper_module
# ),
# filename='obj_chain.dot'
# )
io_loop
.
start
()
tornado
_
server实例
可见,代码越复杂,相互之间的引用关系越多,show_backrefs越难以看懂。这个时候就使用show_chain和find_backref_chain吧,这种方法,在官方文档也是推荐的,我们稍微改改代码,结果如下:
import objgraph
_cache
=
[]
class
OBJ
(
object
)
:
pass
def func_to_leak
()
:
o
=
OBJ
()
_cache
.
append
(
o
)
# do something with o, then remove it from _cache
if
True
:
# this seem ugly, but it always exists
return
_cache
.
remove
(
o
)
if
__name__
==
'__main__'
:
try
:
func_to_leak
()
except
:
pass
# objgraph.show_backrefs(objgraph.by_type('OBJ')[0], max_depth = 10, filename = 'obj.dot')
objgraph
.
show_chain
(
objgraph
.
find_backref_chain
(
objgraph
.
by_type
(
'OBJ'
)[
0
],
objgraph
.
is_proper
_
module
),
filename
=
'obj_chain.dot'
)
上面介绍了内存泄露的第一种情况,对象被“非期望”地引用着。下面看看第二种情况,循环引用中的__del__, 看下面的代码:
# -*- coding: utf-8 -*-
import
objgraph
,
gc
class
OBJ
(
object
)
:
def __del__
(
self
)
:
print
(
'Dangerous!'
)
def show_leak_by_del
()
:
a
,
b
=
OBJ
(),
OBJ
()
a
.
attr_b
=
b
b
.
attr_a
=
a
del
a
,
b
print
gc
.
collect
()
objgraph
.
show_backrefs
(
objgraph
.
by_type
(
'OBJ'
)[
0
],
max_depth
=
10
,
filename
=
'del_obj.dot'
)
上面的代码存在循环引用,而且OBJ类定义了__del__函数。如果没有定义__del__函数,那么上述的代码会报错, 因为gc.collect会将循环引用删除,objgraph.by_type(‘OBJ’)返回空列表。而因为定义了__del__函数,gc.collect也无能为力,结果如下:
从图中可以看到,对于这种情况,还是比较好辨识的,因为objgraph将__del__函数用特殊颜色标志出来,一眼就看见了。另外,可以看见gc.garbage(类型是list)也引用了这两个对象,原因在document中有描述,当执行垃圾回收的时候,会将定义了__del__函数的类实例(被称为uncollectable object)放到gc.garbage列表,因此,也可以直接通过查看gc.garbage来找出定义了__del__的循环引用。在这里,通过增加extra_ignore来排除gc.garbage的影响:
将上述代码的最后一行改成:
objgraph.show_backrefs(objgraph.by_type('OBJ')[0], extra_ignore=(id(gc.garbage),), max_depth = 10, filename = 'del_obj.dot')
另外,也可以设置DEBUG_UNCOLLECTABLE 选项,直接将uncollectable对象输出到标准输出,而不是放到gc.garbage
循环引用
除非定义了__del__方法,那么循环引用也不是什么万恶不赦的东西,因为垃圾回收器可以处理循环引用,而且不准是python标准库还是大量使用的第三方库,都可能存在循环引用。如果存在循环引用,那么Python的gc就必须开启(gc.isenabled()返回True),否则就会内存泄露。但是在某些情况下,我们还是不希望有gc,比如对内存和性能比较敏感的应用场景,在这篇文章中,提到instagram通过禁用gc,性能提升了10%;另外,在一些应用场景,垃圾回收带来的卡顿也是不能接受的,比如RPG游戏。从前面对垃圾回收的描述可以看到,执行一次垃圾回收是很耗费时间的,因为需要遍历所有被collector管理的对象(即使很多对象不属于垃圾)。因此,要想禁用GC,就得先彻底干掉循环引用。
同内存泄露一样,解除循环引用的前提是定位哪里出现了循环引用。而且,如果需要在线上应用关闭gc,那么需要自动、持久化的进行检测。下面介绍如何定位循环引用,以及如何解决循环引用。
定位循环引用
这里还是是用GC模块和objgraph来定位循环引用。需要注意的事,一定要先禁用gc(调用gc.disable()), 防止误差。
这里利用之前介绍循环引用时使用过的例子: a, b两个OBJ对象形成循环引用
# -*- coding: utf-8 -*-
import
objgraph
,
gc
class
OBJ
(
object
)
:
pass
def show_cycle_reference
()
:
a
,
b
=
OBJ
(),
OBJ
()
a
.
attr_b
=
b
b
.
attr_a
=
a
if
__name__
==
'__main__'
:
gc
.
disable
()
for
_
in
xrange
(
50
)
:
show_cycle_reference
()
objgraph
.
show_most_common_types
(
20
)
运行结果(部分):
wrapper
_
descriptor
1060
dict
555
OBJ
100
上面的代码中使用的是show_most_common_types,而没有使用show_growth(因为growth会手动调用gc.collect()),通过结果可以看到,内存中现在有100个OBJ对象,符合预期。当然这些OBJ对象没有在函数调用后被销毁,不一定是循环引用的问题,也可能是内存泄露,比如前面OBJ对象被global作用域中的_cache引用的情况。怎么排除是否是被global作用域的变量引用的情况呢,方法还是objgraph.find_backref_chain(obj),在__doc__中指出,如果找不到符合条件的应用链(chain),那么返回[obj],稍微修改上面的代码:
# -*- coding: utf-8 -*-
import
objgraph
,
gc
class
OBJ
(
object
)
:
pass
def show_cycle_reference
()
:
a
,
b
=
OBJ
(),
OBJ
()
a
.
attr_b
=
b
b
.
attr_a
=
a
if
__name__
==
'__main__'
:
gc
.
disable
()
for
_
in
xrange
(
50
)
:
show_cycle_reference
()
ret
=
objgraph
.
find_backref_chain
(
objgraph
.
by_type
(
'OBJ'
)[
0
],
objgraph
.
is_proper_module
)
print
ret
上面的代码输出:
[<__main__.obj object="" at="">]
验证了我们的想法,OBJ对象不是被global作用域的变量所引用。
在实际项目中,不大可能到处用objgraph.show_most_common_types或者objgraph.by_type来排查循环引用,效率太低。有没有更好的办法呢,有的,那就是使用gc模块的debug 选项。在前面介绍gc模块的时候,就介绍了gc.DEBUG_COLLECTABLE 选项,我们来试试:
# -*- coding: utf-8 -*-
import
gc
,
time
class
OBJ
(
object
)
:
pass
def show_cycle_reference
()
:
a
,
b
=
OBJ
(),
OBJ
()
a
.
attr_b
=
b
b
.
attr_a
=
a
if
__name__
==
'__main__'
:
gc
.
disable
()