专栏名称: Python学习交流
每天更新,更新python相关的知识。希望诸君有所收获!
目录
相关文章推荐
Python爱好者社区  ·  DeepSeek全攻略 ... ·  3 天前  
Python爱好者社区  ·  中国最难入的IT公司。 ·  3 天前  
Python爱好者社区  ·  黄仁勋预言成真!!! ·  昨天  
Python开发者  ·  湖南大学的 DeepSeek ... ·  2 天前  
Python中文社区  ·  FinRL:深度强化学习驱动的量化交易框架 ·  3 天前  
51好读  ›  专栏  ›  Python学习交流

利用Python攻破12306的最后一道防线

Python学习交流  · 公众号  · Python  · 2017-07-11 15:08

正文

各位同学大家好,我是强子,好久没跟大家带来最新的技术文章了,最近有好几个同学问我12306自动抢票能否实现,我就趁这两天有时间用Python做了个12306自动抢票的项目,在这里我来带着大家一起来看看到底如何一步一步攻克万恶的12306,嘻嘻~~

我们要做12306抢票而官方又没有提供相应的接口(也不可能提供),那么我们就只能通过自己寻找12306的数据包和买票流程来模拟浏览器行为实现自动化操作了,说直白一点就是爬虫,接下来进入正题,前方高能,请系好好全带~~

首先在买票前我们需要先确认是否有票,那么进行正常的查票,打开12306查票网站 https://kyfw.12306.cn/otn/leftTicket/init 输入出发地和目的地进行搜索

那么一般在看到这个页面的时候我们能想到的获取车次及相关信息的方式是什么呢?对于零基础的同学而言第一时间就会想到在源代码里面找,但这里事实上源代码里面根本没有相关内容,因为该请求是采用的js中ajax异步请求的方式动态加载的,并不包含在源代码里面,所以我们只能够通过抓包的方式来查看浏览器与服务器的数据交互情况,我用的是谷歌浏览器所以打开开发者工具的快捷键是F12

注意选中红线框出来的那一个选项,此时只要是浏览器和服务器发生数据交互都会在下面列表框显示出来,我们再次点击 查询 按钮

结果发现列表当中有了两个请求,也就是说我们点击 查询 按钮以后浏览器向服务器发起了两次请求,那么我们来通过返回值分析下那个请求才是真正获取到车次相关数据的请求,以便我们用Python来模拟浏览器操作

第一次请求:

很明显第一次请求返回的值没有我们需要的车次信息
第二次请求:

第二次请求里面看到了很多数据,虽然我们暂时还没看到车次信息,但是我们发现它有个特性,就是有个列表的值里面有6个元素,而刚好我们搜索出来的从长沙到成都的车辆也是6条数据,所以这两者肯定有一定关系,那么我们先用Python来获取到这些数据再进行下一步分析

# -*- coding: utf-8 -*-import urllib2import ssl

ssl._create_default_https_context = ssl._create_unverified_contextdef getList():
    req = urllib2.Request('https://kyfw.12306.cn/otn/leftTicket/query?leftTicketDTO.train_date=2017-07-10&leftTicketDTO.from_station=CDW&leftTicketDTO.to_station=CSQ&purpose_codes=ADULT')
    req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36')
    html = urllib2.urlopen(req).read()    return htmlprint getList()

首先定义一个函数来获取车次列表信息
从抓包数据中获取到该请求的url:https://kyfw.12306.cn/otn/leftTicket/query?leftTicketDTO.train_date=2017-07-10&leftTicketDTO.from_station=CDW&leftTicketDTO.to_station=CSQ&purpose_codes=ADULT
为了防止被12306检测到屏蔽我们的请求那么我们可以简单的增加个头信息来模拟浏览器的请求

req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36')

其中的

ssl._create_default_https_context = ssl._create_unverified_context

是因为12306采用的是https协议,而ssl证书是它自己做的并没有得到浏览器的认可,所以Python默认是不会请求不受信任的证书的网站的,我们可以通过这行代码来关闭掉证书的验证
那么我们先来看看能不能正常获取到我们想要的信息 事实证明我们的操作没有问题,接下来先拿到包含有6条数据的这个列表再说
返回的数据是json格式,但是Python标准数据类型中没有json这个类型,所以对于Python而言它就是个字符串,如果要非常方便的操作这个json我们就可以借助Python中的json这个包来把json这个字符串变成dict类型,然后通过dict的键值对操作方法把列表取出来并进行返回

# -*- coding: utf-8 -*-import urllib2import sslimport json

ssl._create_default_https_context = ssl._create_unverified_context

def getList():
    req = urllib2.Request('https://kyfw.12306.cn/otn/leftTicket/query?leftTicketDTO.train_date=2017-07-10&leftTicketDTO.from_station=CDW&leftTicketDTO.to_station=CSQ&purpose_codes=ADULT')
    req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36')
    html = urllib2.urlopen(req).read()
    dict = json.loads(html)    result = dict['data']['result']    return result

最终返回的是一个list数据,我们先把这个数据for出来再看看每一条数据都有些什么东西

for i in getList():
    print i

for出来之后我们先来看看第一条数据是什么样的:

|预订|76000G131805|G1318|ICW|IZQ|ICW|CWQ|07:54|18:54|11:00|N|UHESFcaIDeX22Z0zWfqttDuZXJFuWPdIa148i6TNk5spIqfp|20170710|3|W2|01|16|0|0|||||||||||||






请到「今天看啥」查看全文


推荐文章
Python爱好者社区  ·  中国最难入的IT公司。
3 天前
Python爱好者社区  ·  黄仁勋预言成真!!!
昨天
Python中文社区  ·  FinRL:深度强化学习驱动的量化交易框架
3 天前
港剧剧透社  ·  性感人妻陈自瑶为女儿升学不敢造人
8 年前
陆琪  ·  你真的要继续“懂事”吗?
7 年前
泡学网  ·  和女生啪啪啪的最佳时机!
7 年前