共计 1833 个字符,预计需要花费 5 分钟才能阅读完成。
很多用 Python 的人可能都写过网络爬虫,自动化获取网络数据确实是一件令人愉悦的事情,而 Python 很好的帮助我们达到这种愉悦。然而,爬虫经常要碰到各种登录、验证的阻挠,让人灰心丧气(网站:天天碰到各种各样的爬虫抓我们网站,也很让人灰心丧气~)。爬虫和反爬虫就是一个猫和老鼠的游戏,道高一尺魔高一丈,两者反复纠缠。
由于 http 协议的无状态性,登录验证都是通过传递 cookies 来实现的。通过浏览器登录一次,登录信息的 cookie 是就会被浏览器保存下来。下次再打开该网站时,浏览器自动带上保存的 cookies,只有 cookies 还未过期,对于网站来说你就还是登录状态的。
browsercookie 模块就是这样一个从浏览器提取保存的 cookies 的工具。它是一个很有用的爬虫工具,通过加载你浏览器的 cookies 到一个 cookiejar 对象里面,让你轻松下载需要登录的网页内容。
安装
pip install browsercookie
在 Windows 系统中,内置的 sqlite 模块在加载 FireFox 数据库时会抛出错误。需要更新 sqlite 的版本:
pip install pysqlite
使用方法
下面是从网页提取标题的例子:
>>> import re
>>> get_title = lambda html: re.findall('<title>(.*?)</title>', html, flags=re.DOTALL)[0].strip()
下面是未登录状况下下载得到的标题:
>>> import urllib2
>>> url = 'https://bitbucket.org/'
>>> public_html = urllib2.urlopen(url).read()
>>> get_title(public_html)
'Git and Mercurial code management for teams'
接下来使用 browsercookie 从登录过 Bitbucket 的 FireFox 里面获取 cookie 再下载:
>>> import browsercookie
>>> cj = browsercookie.firefox()
>>> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
>>> login_html = opener.open(url).read()
>>> get_title(login_html)
'richardpenman / home — Bitbucket'
上面是 Python2 的代码,再试试 Python3:
>>> import urllib.request
>>> public_html = urllib.request.urlopen(url).read()
>>> opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
你可以看到你的用户名出现在 title 里面了,说明 browsercookie 模块成功从 FireFox 加载了 cookies。
下面是使用 requests 的例子,这次我们从 Chrome 里面加载 cookies,当然你需要事先用 Chrome 登录 Bitbucket:
>>> import requests
>>> cj = browsercookie.chrome()
>>> r = requests.get(url, cookies=cj)
>>> get_title(r.content)
'richardpenman / home — Bitbucket'
如果你不知道或不关心那个浏览器有你需要的 cookies,你可以这样操作:
>>> cj = browsercookie.load()
>>> r = requests.get(url, cookies=cj)
>>> get_title(r.content)
'richardpenman / home — Bitbucket'
支持
目前,该模块支持以下平台:
Chrome: Linux, OSX, Windows
Firefox: Linux, OSX, Windows
目前该模块测试过的浏览器版本还不是很多,你使用过程中可能会遇到问题,可以向作者提交问题:
https://bitbucket.org/richard…
文章来源于:猿人学网站的 python 教程。
版权申明: 若没有特殊说明,文章皆是猿人学原创,没有猿人学授权,请勿以任何形式转载。