共计 3125 个字符,预计需要花费 8 分钟才能阅读完成。
前言
在上一篇文章《Golang 实现简单爬虫框架(3)——简单并发版》中我们实现了一个最简单并发爬虫,调度器为每一个 Request
创建一个 goroutine
,每个goroutine
往Worker
队列中分发任务,发完就结束。所有的 Worker
都在抢一个 channel
中的任务。但是这样做还是有些许不足之处,比如控制力弱:所有的 Worker 在抢同一个 channel
中的任务,我们没有办法控制给哪一个 worker 任务。
其实我们可以自己做一个任务分发的机制,我们来决定分发给哪一个 Worker
注意:本次并发是在上一篇文章简单并发实现的基础上修改,所以没有贴出全部代码,只是贴出部分修改部分,要查看完整项目代码,可以查看上篇文章,或者从 github 下载项目源代码查看
1、项目架构
在上一篇文章实现简单并发的基础上,我们修改下 Scheduler
的任务分发机制
- 当
Scheduler
接收到一个Request
后,不能直接发给Worker
,也不能为每个Request
创建一个goroutine
,所以这里使用一个 Request 队列 - 同时我们想对
Worker
实现一个更多的控制,可以决定把任务分发给哪一个Worker
,所以这里我们还需要一个Worker
队列 - 当有了
Request
和Worker
,我们就可以把选择的 Request 发送给选择的Worker
2、队列实现任务调度器
在 scheduler 目录下创建 queued.go 文件
package scheduler
import "crawler/engine"
// 使用队列来调度任务
type QueuedScheduler struct {
requestChan chan engine.Request // Request channel
// Worker channel, 其中每一个 Worker 是一个 chan engine.Request 类型
workerChan chan chan engine.Request
}
// 提交请求任务到 requestChannel
func (s *QueuedScheduler) Submit(request engine.Request) {s.requestChan <- request}
func (s *QueuedScheduler) ConfigMasterWorkerChan(chan engine.Request) {panic("implement me")
}
// 告诉外界有一个 worker 可以接收 request
func (s *QueuedScheduler) WorkerReady(w chan engine.Request) {s.workerChan <- w}
func (s *QueuedScheduler) Run() {
// 生成 channel
s.workerChan = make(chan chan engine.Request)
s.requestChan = make(chan engine.Request)
go func() {
// 创建请求队列和工作队列
var requestQ []engine.Request
var workerQ []chan engine.Request
for {
var activeWorker chan engine.Request
var activeRequest engine.Request
// 当 requestQ 和 workerQ 同时有数据时
if len(requestQ) > 0 && len(workerQ) > 0 {activeWorker = workerQ[0]
activeRequest = requestQ[0]
}
select {
case r := <-s.requestChan: // 当 requestChan 收到数据
requestQ = append(requestQ, r)
case w := <-s.workerChan: // 当 workerChan 收到数据
workerQ = append(workerQ, w)
case activeWorker <- activeRequest: // 当请求队列和认读队列都不为空时,给任务队列分配任务
requestQ = requestQ[1:]
workerQ = workerQ[1:]
}
}
}()}
3、爬虫引擎
修改后的 concurrent.go 文件如下
package engine
import ("log")
// 并发引擎
type ConcurrendEngine struct {
Scheduler Scheduler
WorkerCount int
}
// 任务调度器
type Scheduler interface {Submit(request Request) // 提交任务
ConfigMasterWorkerChan(chan Request)
WorkerReady(w chan Request)
Run()}
func (e *ConcurrendEngine) Run(seeds ...Request) {out := make(chan ParseResult)
e.Scheduler.Run()
// 创建 goruntine
for i := 0; i < e.WorkerCount; i++ {createWorker(out, e.Scheduler)
}
// engine 把请求任务提交给 Scheduler
for _, request := range seeds {e.Scheduler.Submit(request)
}
itemCount := 0
for {
// 接受 Worker 的解析结果
result := <-out
for _, item := range result.Items {log.Printf("Got item: #%d: %v\n", itemCount, item)
itemCount++
}
// 然后把 Worker 解析出的 Request 送给 Scheduler
for _, request := range result.Requests {e.Scheduler.Submit(request)
}
}
}
func createWorker(out chan ParseResult, s Scheduler) {
// 为每一个 Worker 创建一个 channel
in := make(chan Request)
go func() {
for {s.WorkerReady(in) // 告诉调度器任务空闲
request := <-in
result, err := worker(request)
if err != nil {continue}
out <- result
}
}()}
4、main 函数
package main
import (
"crawler/engine"
"crawler/scheduler"
"crawler/zhenai/parser"
)
func main() {
e := engine.ConcurrendEngine{Scheduler: &scheduler.QueuedScheduler{},// 这里调用并发调度器
WorkerCount: 50,
}
e.Run(engine.Request{
Url: "http://www.zhenai.com/zhenghun",
ParseFunc: parser.ParseCityList,
})
}
运行结果如下:
5、总结
在这篇文章中我们使用队列实现对并发任务的调度,从而实现了对 Worker 的控制。我们现在并发有两种实现方式,但是他们的调度方法是不同的,为了代码的统一,所以在下一篇文章中的内容有:
- 对项目做一个同构
- 添加数据的存储模块。
如果想获取 Google 工程师深度讲解 go 语言视频资源的,可以在评论区留下邮箱。
项目的源代码已经托管到 Github 上,对于各个版本都有记录,欢迎大家查看,记得给个 star,在此先谢谢大家
如果觉得博客不错,劳烦大人给个赞,
正文完