由于最近看本地新闻时,总是这个新闻网看到那个新闻网,感觉实在是麻烦,兴起想自己写个小爬虫来爬取一些新闻组合成自己的一个新闻列表。选取 Node 来实现。源码:news-crawler 效果:news.imondo.cn
思路
爬取网页涉及到几个使用的插件库:
- request 一个 node 请求库
- cheerio 一个类似于 jQuery 的 DOM 解析库
- iconv-lite 由于 Node.js 只有 utf8 编码规则,那么如果处理 gbk 编码规则的文件就会出现乱码情况,所以使用其转码
- node-schedule Node 的定时任务处理
- ejs 一个模板引擎
程序实现的一个简单的流程
- 通过 request 获取网页信息
- cheerio 分析网页结构,获取新闻关键信息
- 写入 json 文件存取
- 通过 ejs 模板展示新闻列表
获取数据
- 通过 request 来获取需要爬取的新闻页
getList(url) { return new Promise(resolve => { request.get({url, encoding : null}, function(err, res, body) { if (err) { console.log(err); } let html = iconv.decode(body, 'gbk'); let $ = cheerio.load(html, {decodeEntities: false}); resolve($); }); }) }
- 分析页面机构获取关键信息
async get163List(ctx) { const newsList = []; const url = 'https://hunan.news.163.com/'; const $ = await this.getList(url); // 热门新闻 $('.news-feature').each(function(index, elem) { let $elem = $(elem); $elem.find('a').each(function(index, e) { const $e = $(e); const title = $e.text(); const href = $e.attr('href'); const hot = $e.parents('h5').length > 0; newsList.push({ title, href, hot, tag: '网易新闻' }); }) }); return newsList; }
写入数据文件
通过 node 的 fs 模块来写入我们获取得到的新闻关键信息,我选择已每天日期来命名写入的文件
fs.writeFile( path.resolve(__dirname, `../database/${dir}.json`), JSON.stringify({ data}), function (err) { console.log(err); if (err) throw err; console.log('写入完成');});
模板渲染
程序使用 ejs 来渲染,由于程序主要是使用 koa 来搭建,所以需要用到 koa-static
,koa-views
中间件。
先读取 json 数据文件
fs.readFile(path.join( __dirname, `../database/${date}.json`), (err, data) => { if (err) { reject(null); } else { resolve(JSON.parse(data.toString()).data); }})
通过读取的数据渲染
const static = require('koa-static');const views = require('koa-views');// 静态文件app.use(static( path.join( __dirname, './static')));// 加载模板引擎app.use(views( path.join(__dirname, './views'), { extension: 'ejs' }));app.use(async ctx => { let list = await crawler.getNews(); await ctx.render('index', { list, time: utils.getNowDate() })});
这时小爬虫其实已经写完了,但是由于新闻是有时效性的,我们需要做个定时任务,来时时爬取新闻
定时任务
node-schedule 的基本用法可参考文档,程序采用的是每隔 4 小时爬取一次
const schedule = require('node-schedule');const config = require('./../config');const rule = new schedule.RecurrenceRule();rule.hour = config.timeJob;rule.minute = 0;/* 定时任务 */function timeJob (cb) { schedule.scheduleJob(rule, function () { console.log('定时任务执行一次'); cb && cb(); });}
GitHub actions 部署
程序采用的是 github action 自动部署到自己的服务器。部署私服,首先需要解决登录服务器校验的问题,要么输入密码,要么使用 ssh 密钥登录,这里程序使用的是第二种
SSH 私钥连接
- 登录自己的服务器,生成私钥
$ mkdir -p ~/.ssh && cd ~/.ssh$ ssh-keygen -t rsa -f mysiteGenerating public/private rsa key pair.Enter passphrase (empty for no passphrase):Enter same passphrase again:
一路回车,会在 ~/.ssh
下生成两个文件:mysite
(私钥)和mysite.pub
(公钥)。其中私钥是你的个人登录凭证,不要分享给他人。公钥则需要放到登录的目标服务器上。
- 将公钥
mysite.pub
的内容贴到目标服务器的~/.ssh/authorized_keys
中 - 确保服务器
~/.ssh
文件夹的权限低于 711,我这里直接用 600(仅本用户可读写)
chmod 600 -R ~/.ssh
自动化配置
找到 GitHub 上仓库设置,新增 Secrets 设置,添加 SSH_PRIVATE_KEY
配置,这个就是复制我们在上一步中mysite
中的私钥内容,可以参考图中添加需要的私密信息
配置文件
GitHub actions 主要是自动读取仓库下 .github/workflows
文件夹下的 yml 配置。具体的一些配置含义已写在配置文件中
name: Mondo News action # 名称on: push: branches: - master # 只在 master 上 push 操作触发部署 paths-ignore: # 下列文件的变更不触发部署,可以自行添加 - README.md jobs: build-and-deploy: runs-on: ubuntu-latest # 使用 ubuntu 系统镜像运行自动化脚本 steps: # 自动化步骤 - name: Checkout # 步骤名称 uses: actions/checkout@master # 使用别人包装好的步骤镜像 - name: Deploy file to Server uses: wlixcc/SFTP-Deploy-Action@v1.0 with: username: ${{ secrets.USERNAME }} # 引用配置,用户名称 server: ${{ secrets.SERVER_IP }} # 引用配置,服务器 IP ssh_private_key: ${{ secrets.SSH_PRIVATE_KEY }} # 引用配置,SSH 私钥 local_path: './*' remote_path: '/front/news' - name: Server Start uses: appleboy/ssh-action@master with: host: ${{ secrets.SERVER_IP }} username: ${{ secrets.USERNAME }} key: ${{ secrets.SSH_PRIVATE_KEY }} port: ${{ secrets.PORT }} script: sh /front/news/deploy.sh # 执行脚本命令
可以看到 GitHub actions 最大的好处的是利用第三方已经写好的镜像来做部署,我们只需要写下配置就可以运行,有很大的扩展性。
把配置文件提交至远程仓库,可以在仓库 Actions 项中看到启动状态
总结
这次使用代码来小试牛刀解决自己生活中的一些问题,也尝试了 GitHub actions 简化了一些重复性的部署操作。
欢迎关注公众号,大家一起共同交流和进步。