共计 2584 个字符,预计需要花费 7 分钟才能阅读完成。
本文所有教程及源码、软件仅为技术钻研。不波及计算机信息零碎性能的删除、批改、减少、烦扰,更不会影响计算机信息零碎的失常运行。不得将代码用于非法用处,如侵立删
记一次阿里云盾滑块验证剖析并通过
操作环境
- win10、mac
- Python3.9
数据接口
-
搜寻
https://**********?containerid=100103type%3D{chanenl}%26q%3D{quote(self.words)}&page_type=searchall&page={page}
-
user info
https://**********?title=%E5%9F%BA%E6%9C%AC%E8%B5%84%E6%96%99&value={userid}'
proxy 配置
== 应用 socks 需装置:pip install -U ‘requests[socks]’==
def _proxy(self):
"""
调用
:return:
"""
# 判断 IP 是否过期
new_time = datetime.datetime.now()
if self.expire_time and new_time < datetime.datetime.strptime(self.expire_time, "%Y-%m-%d %H:%M:%S"):
# # 以后工夫小于到期工夫证实可用
# if new_time < datetime.datetime.strptime(self.expire_time, "%Y-%m-%d %H:%M:%S"):
print(f'以后应用 IP:{self.proxies} 过期工夫:{self.expire_time}')
return
proxy = Proxy()
ip_port, expire_time = proxy.main()
self.headers = proxy.headers
self.proxies = {'http': 'socks5://{}'.format(ip_port),
'https': 'socks5://{}'.format(ip_port)
}
self.expire_time = expire_time
依据关键词获取 userid
def _get_userid(self, response):
userid = []
content = json.loads(response)
cards = content['data']['cards'] # 数据列表
for card in cards:
if card['card_type'] != 11: # 状态 =11 返回的是用户数据列表
continue
for card_group in card['card_group']:
userid.append(card_group['user']['id']) # 用户 id
return userid
依据 userid 获取信息
def _parse_json(self, res):
content = json.loads(res)
data = {}
data['用户 id'] = content['data']['userInfo']['id'] # userid
data['用户名'] = content['data']['userInfo']['screen_name'] # 用户名
# 性别
sex = content['data']['userInfo']['gender']
data['性别'] = '女' if sex == 'f' else '男'
data['微博认证名称'] = content['data']['userInfo']['verified_reason'] # 微博认证名称
data['简介'] = content['data']['userInfo']['description'] # 简介
data['粉丝数量'] = content['data']['userInfo']['followers_count'] # 粉丝数量
data['公布微博量'] = content['data']['userInfo']['statuses_count'] # 公布微博量
data['关注量'] = content['data']['userInfo']['follow_count'] # 关注量
data['用户头像'] = content['data']['userInfo']['profile_image_url'] # 用户头像
data['挪动端地址'] = content['data']['userInfo']['profile_url'] # 挪动端地址
data['关键词'] = self.words
return data
数据保留
def _save_xls(self, data):
"""
保留数据
data : 字典格局 必须和表头长度一样
:return:
"""
# 判断文件是否存在 如果存在则读取而后插入新数据,不存在则创立一个新 DataFrame 并增加表头
file = f'{PATH}/ 数据 / 关键词 -{self.words}.xlsx'
Header = ['用户 id', '用户名', '性别', '微博认证名称', '简介', '粉丝数量', '公布微博量', '关注量', '用户头像', '挪动端地址', '关键词']
if not os.path.exists(f'{PATH}/ 数据'):
os.mkdir(f'{PATH}/ 数据')
if not os.path.exists(file):
# 创立一个新的文件 并写入表头
df = pd.DataFrame(columns=Header)
else:
# 读取现有文件
df_read = pd.read_excel(file)
df = pd.DataFrame(df_read)
# 定义一行新数据 data 为一个字典
new_data = pd.DataFrame(data, index=[1]) # 自定义索引为:1,这里也能够不设置 index
# 把定义的新数据增加到原数据最初一行 ignore_index=True, 示意不按原来的索引,从 0 开始主动递增
df = df.append(new_data, ignore_index=True)
# 保留数据 sheet_name 工作表名 index 是否增加索引 header 表头
df.to_excel(file, sheet_name=self.words, index=False, header=True)
数据:
本文仅供学习交换应用,如侵立删! |
**
正文完