关于python:想学Python却还不知道requests模块安装及使用

54次阅读

共计 5797 个字符,预计需要花费 15 分钟才能阅读完成。

次要学习 requests 这个 http 模块,requests 次要用于发送申请获取响应,该模块有很多的代替模块,比如说 urllib 模块,然而在工作中用的最多的还是 requests 模块,requests 的代码简洁易懂,绝对于臃肿的 urllib 模块,应用 requests 编写的爬虫代码将会更少,而且实现某一性能将会简略。所以在 python 中 requests 模块很的重要,倡议大家熟练掌握该模块的应用。

requests 模块

咱们来学习如何在代码中实现咱们的爬虫

1. requests 模块介绍

requests 文档 http://docs.python-requests.org/zh_CN/latest/index.html

** 1.1 requests 模块的作用:**

 发送 http 申请,获取响应数据

1.2 requests 模块是一个第三方模块,须要在你的 python(虚构) 环境中额定装置

pip/pip3 install requests

1.3 requests 模块发送 get 申请

    需要:通过 requests 向百度首页发送申请,获取该页面的源码

    运行上面的代码,察看打印输出的后果
# 1.2.1- 简略的代码实现
import requests 

# 指标 url
url = 'https://www.baidu.com' 

# 向指标 url 发送 get 申请
response = requests.get(url)

# 打印响应内容
print(response.text)

知识点:把握 requests 模块发送 get 申请

2. response 响应对象

 察看上边代码运行后果发现,有好多乱码;这是因为编解码应用的字符集不同早造成的;咱们尝试应用下边的方法来解决中文乱码问题
# 1.2.2-response.content
import requests 

# 指标 url
url = 'https://www.baidu.com' 

# 向指标 url 发送 get 申请
response = requests.get(url)

# 打印响应内容
# print(response.text)
print(response.content.decode()) # 留神这里!
1.response.text 是 requests 模块依照 chardet 模块揣测出的编码字符集进行解码的后果

2. 网络传输的字符串都是 bytes 类型的,所以 response.text = response.content.decode('揣测出的编码字符集')

3. 咱们能够在网页源码中搜寻 charset,尝试参考该编码字符集,留神存在不精确的状况

2.1 response.text 和 response.content 的区别:

response.text

    类型:str

    解码类型:requests 模块主动依据 HTTP 头部对响应的编码作出有依据的揣测,揣测的文本编码

response.content

    类型:bytes

    解码类型:没有指定

2.2 通过对 response.content 进行 decode,来解决中文乱码

response.content.decode() 默认 utf-8

response.content.decode("GBK")

常见的编码字符集
  • utf-8
  • gbk
  • gb2312
  • ascii(读音:阿斯克码)
  • iso-8859-1

2.3 response 响应对象的其它罕用属性或办法

response = requests.get(url) 中 response 是发送申请获取的响应对象;response 响应对象中除了 text、content 获取响应内容以外还有其它罕用的属性或办法:

response.url 响应的 url;有时候响应的 url 和申请的 url 并不统一

response.status_code 响应状态码

response.request.headers 响应对应的申请头

response.headers 响应头

response.request._cookies 响应对应申请的 cookie;返回 cookieJar 类型

response.cookies 响应的 cookie(通过了 set-cookie 动作;返回 cookieJar 类型

response.json() 主动将 json 字符串类型的响应内容转换为 python 对象(dict or list)
# 1.2.3-response 其它罕用属性
import requests

# 指标 url
url = 'https://www.baidu.com'

# 向指标 url 发送 get 申请
response = requests.get(url)

# 打印响应内容
# print(response.text)
# print(response.content.decode())             # 留神这里!print(response.url)                            # 打印响应的 url
print(response.status_code)                    # 打印响应的状态码
print(response.request.headers)                # 打印响应对象的申请头
print(response.headers)                        # 打印响应头
print(response.request._cookies)            # 打印申请携带的 cookies
print(response.cookies)                        # 打印响应中携带的 cookies


3. requests 模块发送申请

3.1 发送带 header 的申请

 咱们先写一个获取百度首页的代码
import requests

url = 'https://www.baidu.com'

response = requests.get(url)

print(response.content.decode())

# 打印响应对应申请的申请头信息
print(response.request.headers)

3.1.1 思考

 比照浏览器上百度首页的网页源码和代码中的百度首页的源码,有什么不同?查看网页源码的办法:右键 - 查看网页源代码 或

        右键 - 查看

比照对应 url 的响应内容和代码中的百度首页的源码,有什么不同?查看对应 url 的响应内容的办法:右键 - 查看

        点击 Net work

        勾选 Preserve log

        刷新页面

        查看 Name 一栏下和浏览器地址栏雷同的 url 的 Response

代码中的百度首页的源码非常少,为什么?须要咱们带上申请头信息

        回顾爬虫的概念,模仿浏览器,坑骗服务器,获取和浏览器统一的内容

    申请头中有很多字段,其中 User-Agent 字段必不可少,示意客户端的操作系统以及浏览器的信息

3.1.2 携带申请头发送申请的办法

requests.get(url, headers=headers)

headers 参数接管字典模式的申请头

申请头字段名作为 key,字段对应的值作为 value

3.1.3 实现代码实现

 从浏览器中复制 User-Agent,结构 headers 字典;实现上面的代码后,运行代码查看后果
import requests

url = 'https://www.baidu.com'

headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

# 在申请头中带上 User-Agent,模仿浏览器发送申请
response = requests.get(url, headers=headers) 

print(response.content)

# 打印申请头信息
print(response.request.headers)

3.2 发送带参数的申请

 咱们在应用百度搜寻的时候常常发现 url 地址中会有一个 ?,那么该问号后边的就是申请参数,又叫做查问字符串

3.2.1 在 url 携带参数

间接对含有参数的 url 发动申请

import requests

headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

url = 'https://www.baidu.com/s?wd=python'

response = requests.get(url, headers=headers)

3.2.2 通过 params 携带参数字典

1. 构建申请参数字典

2. 向接口发送申请的时候带上参数字典,参数字典设置给 params

import requests

headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

# 这是指标 url
# url = 'https://www.baidu.com/s?wd=python'

# 最初有没有问号后果都一样
url = 'https://www.baidu.com/s?'

# 申请参数是一个字典 即 wd=python
kw = {'wd': 'python'}

# 带上申请参数发动申请,获取响应
response = requests.get(url, headers=headers, params=kw)

print(response.content)

3.3 在 headers 参数中携带 cookie

 网站常常利用申请头中的 Cookie 字段来做用户拜访状态的放弃,那么咱们能够在 headers 参数中增加 Cookie,模仿普通用户的申请。咱们以 github 登陆为例:

3.3.1 github 登陆抓包剖析

 关上浏览器,右键 - 查看,点击 Net work,勾选 Preserve log

拜访 github 登陆的 url 地址 https://github.com/login

输出账号密码点击登陆后,拜访一个须要登陆后能力获取正确内容的 url,比方点击右上角的 Your profile 拜访 https://github.com/USER_NAME

确定 url 之后,再确定发送该申请所须要的申请头信息中的 User-Agent 和 Cookie

3.3.2 实现代码

 从浏览器中复制 User-Agent 和 Cookie

浏览器中的申请头字段和值与 headers 参数中必须统一

headers 申请参数字典中的 Cookie 键对应的值是字符串
import requests

url = 'https://github.com/USER_NAME'

# 结构申请头字典
headers = {
    # 从浏览器中复制过去的 User-Agent
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36',
    # 从浏览器中复制过去的 Cookie
    'Cookie': 'xxx 这里是复制过去的 cookie 字符串'
}

# 申请头参数字典中携带 cookie 字符串
resp = requests.get(url, headers=headers)

print(resp.text)

3.3.3 运行代码验证后果

 在打印的输入后果中搜寻 title,html 中的题目文本内容如果是你的 github 账号,则胜利利用 headers 参数携带 cookie,获取登陆后能力拜访的页面

知识点:把握 headers 中携带 cookie

3.4 cookies 参数的应用

 上一大节咱们在 headers 参数中携带 cookie,也能够应用专门的 cookies 参数

cookies 参数的模式:字典

cookies = {"cookie 的 name":"cookie 的 value"}

    该字典对应申请头中 Cookie 字符串,以分号、空格宰割每一对字典键值对

    等号右边的是一个 cookie 的 name,对应 cookies 字典的 key

    等号左边对应 cookies 字典的 value

cookies 参数的应用办法

response = requests.get(url, cookies)

将 cookie 字符串转换为 cookies 参数所需的字典:cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split(';')}

留神:cookie 个别是有过期工夫的,一旦过期须要从新获取
import requests

url = 'https://github.com/USER_NAME'

# 结构申请头字典
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36'
}
# 结构 cookies 字典
cookies_str = '从浏览器中 copy 过去的 cookies 字符串'

cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split(';')}

# 申请头参数字典中携带 cookie 字符串
resp = requests.get(url, headers=headers, cookies=cookies_dict)

print(resp.text)

知识点:把握 cookies 参数的应用

3.5 cookieJar 对象转换为 cookies 字典的办法

 应用 requests 获取的 resposne 对象,具备 cookies 属性。该属性值是一个 cookieJar 类型,蕴含了对方服务器设置在本地的 cookie。咱们如何将其转换为 cookies 字典呢?转换方法

cookies_dict = requests.utils.dict_from_cookiejar(response.cookies)

其中 response.cookies 返回的就是 cookieJar 类型的对象

requests.utils.dict_from_cookiejar 函数返回 cookies 字典

知识点:把握 cookieJar 的转换方法

最初

如果文章对你有帮忙的话,给作者点点赞吧 \
回绝白嫖,从我做起

正文完
 0