次要学习requests这个http模块,requests次要用于发送申请获取响应,该模块有很多的代替模块,比如说urllib模块,然而在工作中用的最多的还是requests模块,requests的代码简洁易懂,绝对于臃肿的urllib模块,应用requests编写的爬虫代码将会更少,而且实现某一性能将会简略。所以在python中requests模块很的重要,倡议大家熟练掌握该模块的应用。

requests模块

咱们来学习如何在代码中实现咱们的爬虫

1. requests模块介绍

requests文档http://docs.python-requests.org/zh_CN/latest/index.html

** 1.1 requests模块的作用:**

发送http申请,获取响应数据

1.2 requests模块是一个第三方模块,须要在你的python(虚构)环境中额定装置

pip/pip3 install requests

1.3 requests模块发送get申请

    需要:通过requests向百度首页发送申请,获取该页面的源码    运行上面的代码,察看打印输出的后果
# 1.2.1-简略的代码实现import requests # 指标urlurl = 'https://www.baidu.com' # 向指标url发送get申请response = requests.get(url)# 打印响应内容print(response.text)

知识点:把握 requests模块发送get申请

2. response响应对象

察看上边代码运行后果发现,有好多乱码;这是因为编解码应用的字符集不同早造成的;咱们尝试应用下边的方法来解决中文乱码问题
# 1.2.2-response.contentimport requests # 指标urlurl = 'https://www.baidu.com' # 向指标url发送get申请response = requests.get(url)# 打印响应内容# print(response.text)print(response.content.decode()) # 留神这里!
1.response.text是requests模块依照chardet模块揣测出的编码字符集进行解码的后果2.网络传输的字符串都是bytes类型的,所以response.text = response.content.decode('揣测出的编码字符集')3.咱们能够在网页源码中搜寻charset,尝试参考该编码字符集,留神存在不精确的状况

2.1 response.text 和response.content的区别:

response.text    类型:str    解码类型: requests模块主动依据HTTP 头部对响应的编码作出有依据的揣测,揣测的文本编码response.content    类型:bytes    解码类型: 没有指定

2.2 通过对response.content进行decode,来解决中文乱码

response.content.decode() 默认utf-8response.content.decode("GBK")常见的编码字符集
  • utf-8
  • gbk
  • gb2312
  • ascii (读音:阿斯克码)
  • iso-8859-1

2.3 response响应对象的其它罕用属性或办法

response = requests.get(url)中response是发送申请获取的响应对象;response响应对象中除了text、content获取响应内容以外还有其它罕用的属性或办法:
response.url响应的url;有时候响应的url和申请的url并不统一response.status_code 响应状态码response.request.headers 响应对应的申请头response.headers 响应头response.request._cookies 响应对应申请的cookie;返回cookieJar类型response.cookies 响应的cookie(通过了set-cookie动作;返回cookieJar类型response.json()主动将json字符串类型的响应内容转换为python对象(dict or list)
# 1.2.3-response其它罕用属性import requests# 指标urlurl = 'https://www.baidu.com'# 向指标url发送get申请response = requests.get(url)# 打印响应内容# print(response.text)# print(response.content.decode())             # 留神这里!print(response.url)                            # 打印响应的urlprint(response.status_code)                    # 打印响应的状态码print(response.request.headers)                # 打印响应对象的申请头print(response.headers)                        # 打印响应头print(response.request._cookies)            # 打印申请携带的cookiesprint(response.cookies)                        # 打印响应中携带的cookies

3. requests模块发送申请

3.1 发送带header的申请

咱们先写一个获取百度首页的代码
import requestsurl = 'https://www.baidu.com'response = requests.get(url)print(response.content.decode())# 打印响应对应申请的申请头信息print(response.request.headers)

3.1.1 思考

比照浏览器上百度首页的网页源码和代码中的百度首页的源码,有什么不同?    查看网页源码的办法:        右键-查看网页源代码 或        右键-查看比照对应url的响应内容和代码中的百度首页的源码,有什么不同?    查看对应url的响应内容的办法:        右键-查看        点击 Net work        勾选 Preserve log        刷新页面        查看Name一栏下和浏览器地址栏雷同的url的Response代码中的百度首页的源码非常少,为什么?    须要咱们带上申请头信息        回顾爬虫的概念,模仿浏览器,坑骗服务器,获取和浏览器统一的内容    申请头中有很多字段,其中User-Agent字段必不可少,示意客户端的操作系统以及浏览器的信息

3.1.2 携带申请头发送申请的办法

requests.get(url, headers=headers)

headers参数接管字典模式的申请头申请头字段名作为key,字段对应的值作为value

3.1.3 实现代码实现

从浏览器中复制User-Agent,结构headers字典;实现上面的代码后,运行代码查看后果
import requestsurl = 'https://www.baidu.com'headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}# 在申请头中带上User-Agent,模仿浏览器发送申请response = requests.get(url, headers=headers) print(response.content)# 打印申请头信息print(response.request.headers)

3.2 发送带参数的申请

咱们在应用百度搜寻的时候常常发现url地址中会有一个 ?,那么该问号后边的就是申请参数,又叫做查问字符串

3.2.1 在url携带参数

间接对含有参数的url发动申请

import requestsheaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}url = 'https://www.baidu.com/s?wd=python'response = requests.get(url, headers=headers)

3.2.2 通过params携带参数字典

1.构建申请参数字典

2.向接口发送申请的时候带上参数字典,参数字典设置给params

import requestsheaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}# 这是指标url# url = 'https://www.baidu.com/s?wd=python'# 最初有没有问号后果都一样url = 'https://www.baidu.com/s?'# 申请参数是一个字典 即wd=pythonkw = {'wd': 'python'}# 带上申请参数发动申请,获取响应response = requests.get(url, headers=headers, params=kw)print(response.content)

3.3 在headers参数中携带cookie

网站常常利用申请头中的Cookie字段来做用户拜访状态的放弃,那么咱们能够在headers参数中增加Cookie,模仿普通用户的申请。咱们以github登陆为例:

3.3.1 github登陆抓包剖析

关上浏览器,右键-查看,点击Net work,勾选Preserve log拜访github登陆的url地址 https://github.com/login输出账号密码点击登陆后,拜访一个须要登陆后能力获取正确内容的url,比方点击右上角的Your profile拜访https://github.com/USER_NAME确定url之后,再确定发送该申请所须要的申请头信息中的User-Agent和Cookie

3.3.2 实现代码

从浏览器中复制User-Agent和Cookie浏览器中的申请头字段和值与headers参数中必须统一headers申请参数字典中的Cookie键对应的值是字符串
import requestsurl = 'https://github.com/USER_NAME'# 结构申请头字典headers = {    # 从浏览器中复制过去的User-Agent    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36',    # 从浏览器中复制过去的Cookie    'Cookie': 'xxx这里是复制过去的cookie字符串'}# 申请头参数字典中携带cookie字符串resp = requests.get(url, headers=headers)print(resp.text)

3.3.3 运行代码验证后果

在打印的输入后果中搜寻title,html中的题目文本内容如果是你的github账号,则胜利利用headers参数携带cookie,获取登陆后能力拜访的页面

知识点:把握 headers中携带cookie

3.4 cookies参数的应用

上一大节咱们在headers参数中携带cookie,也能够应用专门的cookies参数cookies参数的模式:字典cookies = {"cookie的name":"cookie的value"}    该字典对应申请头中Cookie字符串,以分号、空格宰割每一对字典键值对    等号右边的是一个cookie的name,对应cookies字典的key    等号左边对应cookies字典的valuecookies参数的应用办法response = requests.get(url, cookies)将cookie字符串转换为cookies参数所需的字典:cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split('; ')}留神:cookie个别是有过期工夫的,一旦过期须要从新获取
import requestsurl = 'https://github.com/USER_NAME'# 结构申请头字典headers = {    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36'}# 结构cookies字典cookies_str = '从浏览器中copy过去的cookies字符串'cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split('; ')}# 申请头参数字典中携带cookie字符串resp = requests.get(url, headers=headers, cookies=cookies_dict)print(resp.text)

知识点:把握 cookies参数的应用

3.5 cookieJar对象转换为cookies字典的办法

应用requests获取的resposne对象,具备cookies属性。该属性值是一个cookieJar类型,蕴含了对方服务器设置在本地的cookie。咱们如何将其转换为cookies字典呢?转换方法cookies_dict = requests.utils.dict_from_cookiejar(response.cookies)其中response.cookies返回的就是cookieJar类型的对象requests.utils.dict_from_cookiejar函数返回cookies字典

知识点:把握 cookieJar的转换方法

最初

如果文章对你有帮忙的话,给作者点点赞吧\
回绝白嫖,从我做起