共计 4638 个字符,预计需要花费 12 分钟才能阅读完成。
代码成果演示
Gitee 源码
# -*- coding: utf-8 -*-
# Version: Python 3.9.7
# Author: TRIX
# Date: 2021-10-04 10:58:56
# Use: 利用 re 爬取猫眼电影 TOP 电影信息 包含 排名 封面 电影名 主演 上映工夫 评分 并贮存到 txt json jpg
import requests,re,json
#集体 headers 获取办法 f12- 网络 -f5- 名称 - 任意一个条目 - 标头 - 申请标头 - 复制所有 依据网页进行局部批改 再用 headersStrToDict.py(作者的 Gitee 上有该文件 https://gitee.com/trix_repository/python_primary_programs/tree/master/grab_from_webs/headersStrToDict) 将复制的字符串转换成字典字符串模式 代码演示:https://www.bilibili.com/video/BV17f4y177tK
filmHeaders={
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",
"Accept-Encoding": "gzip, deflate, br",
"Accept-Language": "zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6",
"Connection": "keep-alive",
"Cookie": "__mta=121600695.1633276133288.1633486391780.1633486486213.25; uuid_n_v=v1; uuid=68300D50246111ECBC330D5DE33F2BD5DC4E5699C4B34D37ABD9B18E36A7FE41; _lxsdk_cuid=17c46d7ff1dc8-0e4be0ab9874b1-513c164a-bfe6e-17c46d7ff1dc8; _lxsdk=68300D50246111ECBC330D5DE33F2BD5DC4E5699C4B34D37ABD9B18E36A7FE41; __mta=121600695.1633276133288.1633317988496.1633318498554.22; _csrf=34b8929cfc79025ebc9bb219233450e5cf2fe4210bc8d3df569351110be80adb; Hm_lvt_703e94591e87be68cc8da0da7cbd0be2=1633276133,1633308246,1633486385; Hm_lpvt_703e94591e87be68cc8da0da7cbd0be2=1633486486; _lxsdk_s=17c53602e76-352-32a-94e%7C%7C5",
"Host": "maoyan.com",
#"Referer": "https://maoyan.com/board/4?offset=20",
"sec-ch-ua": "\"Chromium\";v=\"94\", \"Microsoft Edge\";v=\"94\", \";Not A Brand\";v=\"99\"","sec-ch-ua-mobile":"?0","sec-ch-ua-platform":"\"Windows\"",
"Sec-Fetch-Dest": "document",
"Sec-Fetch-Mode": "navigate",
"Sec-Fetch-Site": "same-origin",
"Sec-Fetch-User": "?1",
"Upgrade-Insecure-Requests": "1",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Edg/94.0.992.38"
}
coverHeaders={
"Referer": "https://maoyan.com/",
"sec-ch-ua": "\"Chromium\";v=\"94\", \"Microsoft Edge\";v=\"94\", \";Not A Brand\";v=\"99\"","sec-ch-ua-mobile":"?0","sec-ch-ua-platform":"\"Windows\"",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Edg/94.0.992.38"
}
def getHtml(url,getContent=False,head=filmHeaders):# 获取网页 html getContent 获取二进制数据
response=requests.get(url,headers=head)
print(f'正在尝试获取 {url} 数据,响应码:{response.status_code}')
if response.status_code==200:
if getContent:
return response.content
return response.text
else:
print(f'网页 {url} 获取数据失败')
return None
def getPageFilmsInfo(page):# 获取页面多个电影信息 返回多个电影信息字典组成的列表
filmHtml=getHtml(baseUrl+f'/board/4?offset={page}')
filmPattern=re.compile(r'<dd>.*?board-index.*?>(.*?)</i>.*?<a href="(.*?)".*?name.*?<a.*?>(.*?)</a>.*?star.*?>(.*?)</p>.*?releasetime.*?>(.*?)</p>.*?integer.*?>(.*?)</i>.*?fraction.*?>(.*?)</i>.*?</dd>',re.S)# 匹配电影的信息 re.S =re.DOTALL 使 . 可能匹配所有字符
filmsInfo=filmPattern.findall(filmHtml)# 多个电影信息 排名 封面 电影名 主演 上映工夫 评分
coverPattern=re.compile(r'<img class="avatar".*?src="(.*?)".*?alt="',re.S)# 匹配电影的封面 re.S =re.DOTALL 使 . 可能匹配所有字符
infoDictsList=[]
for filmInfo in filmsInfo:
print(f'正在爬取排名第 {filmInfo[0]} 的电影信息')
coverUrl=coverPattern.findall(getHtml(baseUrl+filmInfo[1]))[0]#href - avatar 获取电影海报图片链接
coverJpg=getHtml(coverUrl,getContent=True,head=coverHeaders)# 获取电影海报图片内容
coverFile=f'{filmInfo[2].strip()}.jpg'# 海报贮存为 jpg
with open(coverFile,'wb') as f:
f.write(coverJpg)# 下载电影封面
infoDict={# 电影信息
'index':filmInfo[0],#board-index
'cover':coverFile,#name.jpg
'coverUrl':coverUrl,#href - avatar
'name':filmInfo[2].strip(),#name
'mainActor':filmInfo[3].strip()[3:],#star
'releaseTime':filmInfo[4].strip()[5:],#releasetime
'score':filmInfo[5].strip()+filmInfo[6],#integer+fraction
}
infoDictsList.append(infoDict)
return infoDictsList
def getTopFilmsInfo(pages):# 爬取猫眼电影 TOP 电影信息 pages1-10
if pages not in list(range(10)):
raise ValueError('猫眼电影排行榜 Top100 pages 参数范畴:1-10')
print(f'爬取猫眼电影 TOP{pages*10}电影信息 \n')
txtFile=f'猫眼电影 Top{pages*10}.txt'
jsonFile=f'maoyanFilmsTop{pages*10}.json'
f=open(txtFile,'w',encoding='utf-8')
j=open(jsonFile,'w',encoding='utf-8')
for n in range(pages):
print(f'正在爬取第 {n+1} 页的电影信息')
infoDictsList=getPageFilmsInfo(n*10)
for infoDict in infoDictsList:
f.write('---Top{}---\n'.format(infoDict['index']))
f.write('电影名:{}\n'.format(infoDict['name']))
f.write('评分:{}\n'.format(infoDict['score']))
f.write('主演:{}\n'.format(infoDict['mainActor']))
f.write('上映工夫:{}\n'.format(infoDict['releaseTime']))
f.write('封面:{}\n'.format(infoDict['cover']))
f.write('封面链接:{}\n'.format(infoDict['coverUrl']))
f.write('\n')
j.write(json.dumps(infoDict,ensure_ascii=False,indent=4,separators=(',', ':'),sort_keys=True)+'\n')#dict 转 json ensure_ascii 让输入后果是中文而不是 unicode indent 缩进 separators 分隔符 sort_keys 排序 keys
print(f'爬取结束,电影信息已贮存至{txtFile},{jsonFile},电影封面贮存为 电影名.jpg')
f.close()
j.close()
baseUrl='https://maoyan.com'
getTopFilmsInfo(1)# 视频演示 为了节省时间 只爬取 top10
正文完