关于python:Scrapy-豆瓣搜索页爬虫

Scrapy 豆瓣搜寻页爬虫

应用scrapy爬虫框架对豆瓣图书搜寻后果进行爬取

Scrapy

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的利用框架

能够利用在包含数据挖掘,信息处理或存储历史数据等一系列的程序

它提供了多种类型爬虫的基类,如BaseSpider、CrawlSpider等

次要组件

Scrapy框架次要由五大组件组成

  1. 调度器(Scheduler)
    调度器,说白了把它假如成为一个URL的优先队列,由它来决定下一个要抓取的网址是什么,同时去除反复的网址,用户能够本人的需要定制调度器。
  2. 下载器(Downloader)
    下载器,是所有组件中累赘最大的,它用于高速地下载网络上的资源
    Scrapy的下载器代码不会太简单,但效率高,次要的起因是Scrapy下载器是建设在twisted这个高效的 异步模型上的
  3. 爬虫(Spider)

    爬虫,是用户最关怀的部份。用户定制本人的爬虫(通过定制正则表达式等语法),用于从特定的网页中提取本人须要的信息,即所谓的实体(Item)。 用户也能够从中提取出链接,让Scrapy持续抓取下一个页面

  4. 实体管道(Item Pipeline)

    实体管道,用于解决爬虫(spider)提取的实体(Item)

次要的性能是长久化实体、验证实体的有效性、革除不须要的信息

  1. Scrapy引擎(Scrapy Engine)

    Scrapy引擎是整个框架的外围
    它用来管制调试器、下载器、爬虫。实际上,引擎相当于计算机的CPU,它管制着整个流程

数据流(Data flow)

Scrapy中的数据流由执行引擎管制,其过程如下:

  1. 引擎关上一个网站,找到解决该网站的Spider并向该spider申请第一个要爬取的URL(s)
  2. 引擎从Spider中获取到第一个要爬取的URL并在调度器(Scheduler)以Request调度
  3. 引擎向调度器申请下一个要爬取的URL
  4. 调度器返回下一个要爬取的URL给引擎,引擎将URL通过下载中间件(request方向)转发给下载器(Downloader)
  5. 一旦页面下载结束,下载器生成一个该页面的Response,并将其通过下载中间件(response方向)发送给引擎
  6. 引擎从下载器中接管到Response并通过Spider中间件(输出方向)发送给Spider解决
  7. Spider解决Response并返回爬取到的Item及(跟进的)新的Request给引擎
  8. 引擎将(Spider返回的)爬取到的Item给Item Pipeline,将(Spider返回的)Request给调度器
  9. (从第二步)反复直到调度器中没有更多地request,引擎敞开该网站

简略应用

创立我的项目 scrapy startproject xxx
创立爬虫 scrapy genspider xxx(爬虫名) xxx.com (爬取域)
生成文件 scrapy crawl xxx -o xxx.json (生成json/csv文件)
运行爬虫 scrapy crawl XXX
列出所有爬虫 scrapy list

scrapy我的项目目录构造

通过命令scrapy startproject tutorial创立一个新的我的项目tutorial

将会创立蕴含下列内容的 tutorial 目录

tutorial/                        
    scrapy.cfg            # 我的项目的配置文件
    tutorial/            # 该项目标python模块之后将在此退出代码
        __init__.py
        items.py        # 我的项目中的item文件
        pipelines.py    # 我的项目中的pipelines文件
        settings.py        # 我的项目的设置文件
        spiders/        # 搁置spider代码的目录
            __init__.py
            ...

应用scrapy爬取豆瓣搜寻页

剖析

https://search.douban.com/movie/subject_search?search_text={search_text}&cat=1002&start={start}

search_text 搜寻关键字

cat 搜寻类别

start 开始的条数

url规定能够实用到图书电影搜寻页面,前面的爬取也一样

爬取后发现页面信息都无奈获取,然而能够找到有个window.__DATA__猜想数据都被加密成了这串字符串

一轮百度发现有大佬把加密的js代码提取进去了!

于是间接给出大佬的链接豆瓣读书搜寻页的window.__DATA__的解密

解决了这个问题其余的就很好爬取了

代码

残缺代码见github仓库

提取出的js在third_party/main.js

class DoubanBookSearchSpider(scrapy.Spider):
    name = 'douban_book_search'
    allowed_domains = ['douban.com']

    def __init__(self,keyword=None,start=None,*args, **kwargs):
        super(DoubanBookSearchSpider, self).__init__(*args, **kwargs)
        self.keyword = keyword
        self.start = start
        self.start_urls.append(f'https://search.douban.com/book/subject_search?search_text={self.keyword}&cat=1001&start={self.start}')

    def parse(self, response):
        r = re.search('window.__DATA__ = "([^"]+)"', response.text).group(1)
        # 导入js
        file_path = pathlib.Path.cwd() / 'third_party/main.js'
        with open(file_path, 'r', encoding='gbk') as f:
            decrypt_js = f.read()
        ctx = execjs.compile(decrypt_js)
        data = ctx.call('decrypt', r)
        for item in data['payload']['items']:
            if item.get('rating', None):
                cover_url = item['cover_url']
                score = item['rating']['value']
                score_num = item['rating']['count']
                url = item['url']
                abstract = item['abstract']
                title = item['title']
                id = item['id']
                yield DouBanBookSearchItem(
                    cover_url=cover_url,
                    score=score,
                    score_num=score_num,
                    url=url,
                    abstract=abstract,
                    title=title,
                    id=id)

参考

爬虫框架Scrapy集体总结(具体)相熟

架构概览

Scrapy爬虫框架,入门案例(十分具体)

豆瓣读书搜寻页的window.__DATA__的解密

【腾讯云】轻量 2核2G4M,首年65元

阿里云限时活动-云数据库 RDS MySQL  1核2G配置 1.88/月 速抢

本文由乐趣区整理发布,转载请注明出处,谢谢。

您可能还喜欢...

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据