共计 2072 个字符,预计需要花费 6 分钟才能阅读完成。
往期回顾
Python 实现主动监测 Github 我的项目并关上网页
Python 实现文件主动归类
Python 实现帮你抉择双色球号码
Python 实现每日更换“必应图片”为“桌面壁纸”
Python 实现批量加水印
Python 实现破译 zip 压缩包
前言
明天咱们就利用 python 脚本实现批量下载百度图片。间接开整~
成果展现
编写思路:
1. 获取图片的 url 链接
首先,关上百度图片首页,留神下图 url 中的 index
接着,把页面切换成传统翻页版(flip),因为这样有利于咱们爬取图片!
而后,右键查看网页源代码,间接(ctrl+F)搜寻 objURL
这样,咱们发现了须要图片的 url 了。
2. 把图片链接保留到本地
当初,咱们要做的就是将这些信息爬取出来。
注:网页中有 objURL,hoverURL…然而咱们用的是 objURL,因为这个是原图
正则表达式获取 objURL
results = re.findall('"objURL":"(.*?)",', html)
源码展现:
1. 获取图片 url 代码:
# 获取图片 url 连贯
for i in range(int(pn)):
# 1. 获取网页
print('正在获取第 {} 页'.format(i+1))
# 百度图片首页的 url
# name 是你要搜寻的关键词
# pn 是你想下载的页数
url = 'https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%s&pn=%d' %(name,i*20)
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4843.400 QQBrowser/9.7.13021.400'}
# 发送申请,获取相应
response = requests.get(url, headers=headers)
html = response.content.decode()
# print(html)
# 2. 正则表达式解析网页
# "objURL":"http://n.sinaimg.cn/sports/transform/20170406/dHEk-fycxmks5842687.jpg"
results = re.findall('"objURL":"(.*?)",', html) # 返回一个列表
# 依据获取到的图片链接,把图片保留到本地
save_to_txt(results, name, i)</pre>
2. 保留图片到本地代码:
# 保留图片到本地
j = 0
# 在当目录下创立文件夹
if not os.path.exists('./' + name):
os.makedirs('./' + name)
# 下载图片
for result in results:
print('正在保留第 {} 个'.format(j))
try:
pic = requests.get(result, timeout=10)
time.sleep(1)
except:
print('以后图片无奈下载')
j += 1
continue
# 可疏忽,这段代码有 bug
# file_name = result.split('/')
# file_name = file_name[len(file_name) - 1]
# print(file_name)
#
# end = re.search('(.png|.jpg|.jpeg|.gif)/pre>, file_name)
# if end == None:
# file_name = file_name + '.jpg'
# 把图片保留到文件夹
file_full_name = './' + name + '/' + str(i) + '-' + str(j) + '.jpg'
with open(file_full_name, 'wb') as f:f.write(pic.content)
j += 1
外围代码:
pic = requests.get(result, timeout=10)
f.write(pic.content)
3. 主函数代码:
# 主函数
if __name__ == '__main__':
name = input('请输出你要下载的关键词:')
pn = input('你想下载前几页(1 页有 60 张):')
get_parse_page(pn, name)
文章到这里就完结了,感激你的观看,Python 实用脚本系列,下篇文章分享天气查问利用
为了感激读者们,我想把我最近珍藏的一些编程干货分享给大家,回馈每一个读者,心愿能帮到你们。
干货次要有:
① 2000 多本 Python 电子书(支流和经典的书籍应该都有了)
② Python 规范库材料(最全中文版)
③ 我的项目源码(四五十个乏味且经典的练手我的项目及源码)
④ Python 根底入门、爬虫、web 开发、大数据分析方面的视频(适宜小白学习)
⑤ Python 学习路线图(辞别不入流的学习)
⑥ 两天的 Python 爬虫训练营直播权限
All done~详见个人简介或者私信获取残缺源代码。。