共计 1239 个字符,预计需要花费 4 分钟才能阅读完成。
明天持续向 Python 头条增加数据信息,实现了微信公号的爬虫,接下来会持续通过搜狗的知乎搜寻抓取知乎上与 Python 相干的文章、问答。微信公众号的文章链接有些是具备时效性的,过一段时间会变成参数谬误而无法访问,然而咱们发现从公众号后盾点击过来失去的链接却是永恒链接,其参数不会扭转链接也不会生效,也就是说只有可能取得这些参数就能够失去永恒链接。通过观察发现即便从搜狗搜寻入口的有时效性的链接拜访网页,其源码中也带有这些参数:
所以只有解析这几个参数,就能够结构出永恒链接。
首先通过搜狗搜寻入口,能够获取 Python 关键词搜寻的后果,地址为:
HOST = 'http://weixin.sogou.com/'
entry = HOST + "weixin?type=2&query=Python&page={}"
提取链接、题目和摘要信息:
import requests as req
import re
rInfo = r'<h4[\s\S]*?href="([\s\S]*?)".*?>([\s\S]*?)<\/a>[\s\S]*?<\/h4>\s*<p[\s\S]*?>([\s\S]*?)<\/p>'
html = req.get(entry.format(1)) # 第一页
infos = re.findall(rInfo, html)
因为关键词搜寻会在题目或摘要中产生特定格局的标签,须要过滤:
def remove_tags(s):
return re.sub(r'<.*?>', '', s)
而后依据时效性链接获取文章内容,并从中提取参数信息:
from html import unescape
from urllib.parse import urlencode
def weixin_params(link):
html = req.get(link)
rParams = r'var (biz =.*?".*?");\s*var (sn =.*?".*?");\s*var (mid =.*?".*?");\s*var (idx =.*?".*?");'
params = re.findall(rParams, html)
if len(params) == 0:
return None
return {i.split('=')[0].strip(): i.split('=', 1)[1].strip('|" ') for i in params[0]}
for (link, title, abstract) in infos:
title = unescape(self.remove_tag(title))
abstract = unescape(self.remove_tag(abstract))
params = weixin_params(link)
if params is not None:
link = "http://mp.weixin.qq.com/s?" + urlencode(params)
print(link, title, abstract)
看到文章最初,如果感觉此篇文章对您有帮忙的话,麻烦点个赞再走哦~ 谢谢浏览~
正文完