共计 1525 个字符,预计需要花费 4 分钟才能阅读完成。
最近在试用 scrapy 爬取网站数据
发现局部图表是通过异步生成的,
scrapy 获取到的 html 页面内只有一个空标签。
因而只能查找其原数据,还好通过翻查实例化表格的 js 文件就追溯到了。然而数据在原 html 页面内的 script 标签内以 js 间接定义,如下图:
不能间接通过 xpath 获取,而且是一般 object 和 array 两种格局,通过间接字符串操作必定不够优雅。
因而须要绕一下:
import js2xml
import json
import xmltodict
from lxml.etree import tostring
import xmldict_simplify #下文定义的办法
#中略...
dataName ="forecast_1h"
scripts = response.xpath('//script/text()').extract()
#获取特定 script 标签的内容,不蕴含标签自身
script =list(filter(lambda x: (dataName in x),scripts))[0]
#script 内容 → xml
xml = js2xml.parse(script,encoding='utf-8',debug=False)
如果这一步间接 xml 转 json 的话,会失去这样的数据
即带数据类型的 json 数据,然而这样的 dict 天然是不好用的,
因而定义个办法解决下
def typeParse(xmlobj):
keys = list(xmlobj.keys())
if(len(keys)>1):
#援用类型嵌套调用
if(keys[1]=="array"):
return {xmlobj[keys[0]]:list(map(lambda x:typeParse(x),xmlobj["array"]["object"]))}
elif(keys[1]=="object"):
return {xmlobj[keys[0]]:typeParse(xmlobj["object"])}
if(len(keys)==1 and keys[0]=="property"):
_property = {}
for item in xmlobj["property"]:
_keys = list(item.keys())
#值类型间接输入
if(_keys[1]=="string"):
_property[item["@name"]] = item["string"]
elif(_keys[1]=="number"):
_property[item["@name"]] = item["number"]["@value"]
#援用类型持续解决
else:
_property[item["@name"]] = int(typeParse(item)[item["@name"]])
return _property
在主流程内应用
_dict = xmltodict.parse(tostring(xml))["program"]
_data = {}
if(len(_dict["var"])>0):
for item in _dict["var"]:
_simplify = xmldict_simplify.typeParse(item)
_data = dict(_data,**dict(_simplify))
失去了一般的 dict 和 list 数据{"forecast_1h": [{"time": "08", "weatherCode": "d07", "weather": "\u5c0f\u96e8", "temp": "28", "windL": "<3\u7ea7",...
"forecast_default": {"time": "11:00", "weatherBg": "weatherBg02",...
正文完