上一章中,我们实现了一个最基本的爬虫,但提取页面信息时使用的是正则表达式,这还是比较烦琐,而且万一有地方写错了,可能导致匹配失败,所以使用正则表达式提取页面信息多多少少还是有些不方便。
对于网页的节点来说,它可以定义
id
、
class
或其他属性。而且节点之间还有层次关系,在网页中可以通过XPath或CSS选择器来定位一个或多个节点。那么,在页面解析时,利用XPath或CSS选择器来提取某个节点,然后再调用相应方法获取它的正文内容或者属性,不就可以提取我们想要的任意信息了吗?
在Python中,怎样实现这个操作呢?不用担心,这种解析库已经非常多,其中比较强大的库有lxml、Beautiful Soup、pyquery等,本章就来介绍这3个解析库的用法。有了它们,我们就不用再为正则表达式发愁,而且解析效率也会大大提高。
XPath,全称XML Path Language,即XML路径语言,它是一门在XML文档中查找信息的语言。它最初是用来搜寻XML文档的,但是它同样适用于HTML文档的搜索。
所以在做爬虫时,我们完全可以使用XPath来做相应的信息抽取。本节中,我们就来介绍XPath的基本用法。
1. XPath概览
XPath的选择功能十分强大,它提供了非常简洁明了的路径选择表达式。另外,它还提供了超过100个内建函数,用于字符串、数值、时间的匹配以及节点、序列的处理等。几乎所有我们想要定位的节点,都可以用XPath来选择。
XPath于1999年11月16日成为W3C标准,它被设计为供XSLT、XPointer以及其他XML解析软件使用,更多的文档可以访问其官方网站: www.w3.org/TR/xpath/ 。
2. XPath常用规则
表4-1列举了XPath的几个常用规则。
表4-1 XPath常用规则
这里列出了XPath的常用匹配规则,示例如下:
//title[@lang='eng']
这就是一个XPath规则,它代表选择所有名称为
title
,同时属性
lang
的值为
eng
的节点。
后面会通过Python的lxml库,利用XPath进行HTML的解析。
3. 准备工作
使用之前,首先要确保安装好lxml库,若没有安装,可以参考第1章的安装过程。
4. 实例引入
现在通过实例来感受一下使用XPath来对网页进行解析的过程,相关代码如下:
from lxml import etree
text = '''
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</ul>
</div>
'''
html = etree.HTML(text)
result = etree.tostring(html)
print(result.decode('utf-8'))
这里首先导入lxml库的etree模块,然后声明了一段HTML文本,调用HTML类进行初始化,这样就成功构造了一个XPath解析对象。这里需要注意的是,HTML文本中的最后一个
li
节点是没有闭合的,但是etree模块可以自动修正HTML文本。
这里我们调用
tostring()
方法即可输出修正后的HTML代码,但是结果是
bytes
类型。这里利用
decode()
方法将其转成
str
类型,结果如下:
<html><body><div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li></ul>
</div>
</body></html>
可以看到,经过处理之后,
li
节点标签被补全,并且还自动添加了
body
、
html
节点。
另外,也可以直接读取文本文件进行解析,示例如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = etree.tostring(html)
print(result.decode('utf-8'))
其中test.html的内容就是上面例子中的HTML代码,内容如下:
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</ul>
</div>
这次的输出结果略有不同,多了一个
DOCTYPE
的声明,不过对解析无任何影响,结果如下:
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">
<html><body><div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li></ul>
</div></body></html>
5. 所有节点
我们一般会用//开头的XPath规则来选取所有符合要求的节点。这里以前面的HTML文本为例,如果要选取所有节点,可以这样实现:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//*')
print(result)
运行结果如下:
[<Element html at 0x10510d9c8>, <Element body at 0x10510da08>, <Element div at 0x10510da48>, <Element ul at 0x10510da88>, <Element li at 0x10510dac8>, <Element a at 0x10510db48>, <Element li at 0x10510db88>, <Element a at 0x10510dbc8>, <Element li at 0x10510dc08>, <Element a at 0x10510db08>, <Element li at 0x10510dc48>, <Element a at 0x10510dc88>, <Element li at 0x10510dcc8>, <Element a at 0x10510dd08>]
这里使用*代表匹配所有节点,也就是整个HTML文本中的所有节点都会被获取。可以看到,返回形式是一个列表,每个元素是
Element
类型,其后跟了节点的名称,如
html
、
body
、
div
、
ul
、
li
、
a
等,所有节点都包含在列表中了。
当然,此处匹配也可以指定节点名称。如果想获取所有
li
节点,示例如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li')
print(result)
print(result[0])
这里要选取所有
li
节点,可以使用
//
,然后直接加上节点名称即可,调用时直接使用
xpath()
方法即可。
运行结果:
[<Element li at 0x105849208>, <Element li at 0x105849248>, <Element li at 0x105849288>, <Element li at 0x1058492c8>, <Element li at 0x105849308>]
<Element li at 0x105849208>
这里可以看到提取结果是一个列表形式,其中每个元素都是一个
Element
对象。如果要取出其中一个对象,可以直接用中括号加索引,如
[0]
。
6. 子节点
我们通过
/
或
//
即可查找元素的子节点或子孙节点。假如现在想选择
li
节点的所有直接
a
子节点,可以这样实现:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li/a')
print(result)
这里通过追加
/a
即选择了所有
li
节点的所有直接
a
子节点。因为
//li
用于选中所有
li
节点,
/a
用于选中
li
节点的所有直接子节点
a
,二者组合在一起即获取所有
li
节点的所有直接
a
子节点。
运行结果如下:
[<Element a at 0x106ee8688>, <Element a at 0x106ee86c8>, <Element a at 0x106ee8708>, <Element a at 0x106ee8748>, <Element a at 0x106ee8788>]
此处的
/
用于选取直接子节点,如果要获取所有子孙节点,就可以使用
//
。例如,要获取
ul
节点下的所有子孙
a
节点,可以这样实现:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//ul//a')
print(result)
运行结果是相同的。
但是如果这里用
//ul/a
,就无法获取任何结果了。因为
/
用于获取直接子节点,而在
ul
节点下没有直接的
a
子节点,只有
li
节点,所以无法获取任何匹配结果,代码如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//ul/a')
print(result)
运行结果如下:
[]
因此,这里我们要注意
/
和
//
的区别,其中
/
用于获取直接子节点,
//
用于获取子孙节点。
7. 父节点
我们知道通过连续的
/
或
//
可以查找子节点或子孙节点,那么假如我们知道了子节点,怎样来查找父节点呢?这可以用
..
来实现。
比如,现在首先选中
href
属性为
link4.html
的
a
节点,然后再获取其父节点,然后再获取其
class
属性,相关代码如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/../@class')
print(result)
运行结果如下:
['item-1']
检查一下结果发现,这正是我们获取的目标
li
节点的
class
。
同时,我们也可以通过
parent::
来获取父节点,代码如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/parent::*/@class')
print(result)
8. 属性匹配
在选取的时候,我们还可以用
@
符号进行属性过滤。比如,这里如果要选取
class
为
item-1
的
li
节点,可以这样实现:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]')
print(result)
这里我们通过加入
[@class="item-0"]
,限制了节点的
class
属性为
item-0
,而HTML文本中符合条件的
li
节点有两个,所以结果应该返回两个匹配到的元素。结果如下:
[<Element li at 0x10a399288>, <Element li at 0x10a3992c8>]
可见,匹配结果正是两个,至于是不是那正确的两个,后面再验证。
9. 文本获取
我们用XPath中的
text()
方法获取节点中的文本,接下来尝试获取前面
li
节点中的文本,相关代码如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]/text()')
print(result)
运行结果如下:
['\n ']
奇怪的是,我们并没有获取到任何文本,只获取到了一个换行符,这是为什么呢?因为XPath中
text()
前面是
/
,而此处
/
的含义是选取直接子节点,很明显
li
的直接子节点都是
a
节点,文本都是在
a
节点内部的,所以这里匹配到的结果就是被修正的
li
节点内部的换行符,因为自动修正的
li
节点的尾标签换行了。
即选中的是这两个节点:
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li>
其中一个节点因为自动修正,
li
节点的尾标签添加的时候换行了,所以提取文本得到的唯一结果就是
li
节点的尾标签和
a
节点的尾标签之间的换行符。
因此,如果想获取
li
节点内部的文本,就有两种方式,一种是先选取
a
节点再获取文本,另一种就是使用
//
。接下来,我们来看下二者的区别。
首先,选取到
a
节点再获取文本,代码如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]/a/text()')
print(result)
运行结果如下:
['first item', 'fifth item']
可以看到,这里的返回值是两个,内容都是属性为
item-0
的
li
节点的文本,这也印证了前面属性匹配的结果是正确的。
这里我们是逐层选取的,先选取了
li
节点,又利用
/
选取了其直接子节点
a
,然后再选取其文本,得到的结果恰好是符合我们预期的两个结果。
再来看下用另一种方式(即使用
//
)选取的结果,代码如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]//text()')
print(result)
运行结果如下:
['first item', 'fifth item', '\n ']
不出所料,这里的返回结果是3个。可想而知,这里是选取所有子孙节点的文本,其中前两个就是
li
的子节点
a
节点内部的文本,另外一个就是最后一个
li
节点内部的文本,即换行符。
所以说,如果要想获取子孙节点内部的所有文本,可以直接用
//
加
text()
的方式,这样可以保证获取到最全面的文本信息,但是可能会夹杂一些换行符等特殊字符。如果想获取某些特定子孙节点下的所有文本,可以先选取到特定的子孙节点,然后再调用
text()
方法获取其内部文本,这样可以保证获取的结果是整洁的。
10. 属性获取
我们知道用
text()
可以获取节点内部文本,那么节点属性该怎样获取呢?其实还是用
@
符号就可以。例如,我们想获取所有
li
节点下所有
a
节点的
href
属性,代码如下:
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li/a/@href')
print(result)
这里我们通过
@href
即可获取节点的
href
属性。注意,此处和属性匹配的方法不同,属性匹配是中括号加属性名和值来限定某个属性,如
[@href="link1.html"]
,而此处的
@href
指的是获取节点的某个属性,二者需要做好区分。
运行结果如下:
['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html']
可以看到,我们成功获取了所有
li
节点下
a
节点的
href
属性,它们以列表形式返回。
11. 属性多值匹配
有时候,某些节点的某个属性可能有多个值,例如:
from lxml import etree
text = '''
<li class="li li-first"><a href="link.html">first item</a></li>
'''
html = etree.HTML(text)
result = html.xpath('//li[@class="li"]/a/text()')
print(result)
这里HTML文本中
li
节点的
class
属性有两个值
li
和
li-first
,此时如果还想用之前的属性匹配获取,就无法匹配了,此时的运行结果如下:
[]
这时就需要用
contains()
函数了,代码可以改写如下:
from lxml import etree
text = '''
<li class="li li-first"><a href="link.html">first item</a></li>
'''
html = etree.HTML(text)
result = html.xpath('//li[contains(@class, "li")]/a/text()')
print(result)
这样通过
contains()
方法,第一个参数传入属性名称,第二个参数传入属性值,只要此属性包含所传入的属性值,就可以完成匹配了。
此时运行结果如下:
['first item']
此种方式在某个节点的某个属性有多个值时经常用到,如某个节点的
class
属性通常有多个。