关于php:Python轻松抓取微信公众号文章

53次阅读

共计 1239 个字符,预计需要花费 4 分钟才能阅读完成。

明天持续向 Python 头条增加数据信息,实现了微信公号的爬虫,接下来会持续通过搜狗的知乎搜寻抓取知乎上与 Python 相干的文章、问答。微信公众号的文章链接有些是具备时效性的,过一段时间会变成参数谬误而无法访问,然而咱们发现从公众号后盾点击过来失去的链接却是永恒链接,其参数不会扭转链接也不会生效,也就是说只有可能取得这些参数就能够失去永恒链接。通过观察发现即便从搜狗搜寻入口的有时效性的链接拜访网页,其源码中也带有这些参数:

所以只有解析这几个参数,就能够结构出永恒链接。

首先通过搜狗搜寻入口,能够获取 Python 关键词搜寻的后果,地址为:

HOST = 'http://weixin.sogou.com/'
entry = HOST + "weixin?type=2&query=Python&page={}"

提取链接、题目和摘要信息:

import requests as req
import re
rInfo = r'<h4[\s\S]*?href="([\s\S]*?)".*?>([\s\S]*?)<\/a>[\s\S]*?<\/h4>\s*<p[\s\S]*?>([\s\S]*?)<\/p>'

html  = req.get(entry.format(1)) # 第一页
infos = re.findall(rInfo, html)

因为关键词搜寻会在题目或摘要中产生特定格局的标签,须要过滤:

def remove_tags(s):
  return re.sub(r'<.*?>', '', s)

而后依据时效性链接获取文章内容,并从中提取参数信息:

from html import unescape
from urllib.parse import urlencode

def weixin_params(link):
  html = req.get(link)
  rParams = r'var (biz =.*?".*?");\s*var (sn =.*?".*?");\s*var (mid =.*?".*?");\s*var (idx =.*?".*?");'
  params = re.findall(rParams, html)
  if len(params) == 0:
    return None
  return {i.split('=')[0].strip(): i.split('=', 1)[1].strip('|" ') for i in params[0]}

for (link, title, abstract) in infos:
  title    = unescape(self.remove_tag(title))
  abstract = unescape(self.remove_tag(abstract))
  params   = weixin_params(link)  
  if params is not None:
    link = "http://mp.weixin.qq.com/s?" + urlencode(params)
    print(link, title, abstract)

看到文章最初,如果感觉此篇文章对您有帮忙的话,麻烦点个赞再走哦~ 谢谢浏览~

正文完
 0