共计 4833 个字符,预计需要花费 13 分钟才能阅读完成。
前言
        浏览某乎网站时发现了一个分享各种图片的博主,于是我棘手就保留了一些。然而一张一张的保留切实太麻烦了,于是我就想要某虫的伎俩来解决。这样保留确实是很快,然而他不识图片内容,最近又看了 mobileNet 的预训练模型,想着能让程序本人对图片分类,以下就通过例子从内容采集到分类的过程。
内容和资源的采集,反手就是某虫了。在网络上,通过近几年的营销渲染,可能首选是用 Python 做脚本。而这次是用 PHP 的 QueryList 来做采集,上面也就是采集的编码过程和踩坑解决办法,最初再对采集图片进行标注和训练。
环境
PHP7.4
QueryList4.0
QueryList-CurlMulti
编码
       以下例子是基于 TP5.1,所以只须要装置下面两个依赖包。采集启动通过自定义命令实现,接下来别离以一般采集和多线程采集两种形式展现。
- 一般采集
<?php
/**
* @Notes: 公众号:ZERO 开发
* @Interface getCondition
* @Return mixed
* @Author: bqs
* @Time: 2021/4/19 15:28
*/
namespace app\common\command;
use think\console\Command;
use think\console\Input;
use think\console\Output;
use think\console\input\Argument;
use think\console\input\Option;
use think\Db;
use think\facade\Hook;
use think\facade\Log;
use QL\QueryList;
class QueryListSpiderSingle extends Command
{protected function configure()
{$this->setName('querylist:single')
->setDescription('采集');
}
protected function execute(Input $input, Output $output)
{ini_set('memory_limit', '512M');
$output->writeln("=========date:" . date('Y-m-d H:i:s') . "===============");
// 北桥苏奥特曼
//$slImgsUrl = "https://zhuanlan.zhihu.com/p/377571373";
$slImgsUrl = "https://zhuanlan.zhihu.com/p/344680014";
// 原生 query_list
$list = QueryList::get($slImgsUrl)->find('.RichText')->find('noscript')->find('img')->attrs('src');
$path = 'E:\2setsoft\1dev\phpstudy_pro\WWW\4test\tensorflowJs\js-ml-code\t7\ 动漫分类 \train\ 奥特曼 \\';
foreach($list as $key => $value) {
$index = $key + 1 + 42;
$filename = $index < 10 ? str_pad($index, 2, "0", STR_PAD_LEFT) : $index;
$filend = pathinfo($value, PATHINFO_EXTENSION);
$file = file_get_contents($value);
file_put_contents($path . $filename . "." . $filend, $file);
$output->writeln($index . "--" . $value . "已保留 --");
}
$output->writeln("============date:" .date("Y-m-d H:i:s") . "采集实现 ==============");
}
}
- 多线程采集
<?php
/**
* @Notes: 文件形容
* @Interface getCondition
* @Return mixed
* @Author: bqs
* @Time: 2021/4/19 15:28
*/
namespace app\common\command;
use think\console\Command;
use think\console\Input;
use think\console\Output;
use think\console\input\Argument;
use think\console\input\Option;
use think\Db;
use think\facade\Hook;
use think\facade\Log;
use QL\QueryList;
use QL\Ext\CurlMulti;
class QueryListSpider extends Command
{protected function configure()
{$this->setName('query:list')
->setDescription('采集');
}
protected function execute(Input $input, Output $output)
{ini_set('memory_limit', '512M');
$output->writeln("=========date:" . date('Y-m-d H:i:s') . "===============");
// 地址与目录映射
$dirMap = [
"假面骑士" => "https://zhuanlan.zhihu.com/p/376119915",
"龙珠" => "https://zhuanlan.zhihu.com/p/340048917",
"火影忍者" => ["https://zhuanlan.zhihu.com/p/352717188", "https://zhuanlan.zhihu.com/p/393213201", "https://zhuanlan.zhihu.com/p/358228745"],
"海贼王" => ["https://zhuanlan.zhihu.com/p/357683518", "https://zhuanlan.zhihu.com/p/338160632"]
];
// 采集地址
$multiArr = [];
$multiArr = array_reduce(array_values($dirMap), function ($res, $value) {$res = array_merge($res, (array)$value);
return $res;
}, []);
// 采集映射
$multiMap = [];
foreach($dirMap as $key => $value) {if (!is_array($value)) {$multiMap[$value] = $key;
} else {$temp = array_fill_keys($value, $key);
$multiMap = array_merge($multiMap, $temp);
}
}
// 开始应用多线程采集
$ql = QueryList::use (CurlMulti::class);
$ql->curlMulti($multiArr)
->success(function (QueryList $ql, CurlMulti $curl, $r) use ($multiMap) {
$path = 'E:\2setsoft\1dev\phpstudy_pro\WWW\4test\tensorflowJs\js-ml-code\t7\ 动漫分类 \train\\';
$queryUrl = $r['info']['url'];
$className = $multiMap[$queryUrl] ?? "";
$targetDir = $path . $className;
$path = $targetDir . '\\';
$endFileIndex = 0;
$existFileList = $this->scanFile($targetDir);
if ($existFileList) {
// 取出所有数字文件名最大值
$endFileName = max($existFileList);
$endFileIndex = explode(".", $endFileName)[0];
}
$data = $ql->find('.RichText')->find('noscript')->find('img')->attrs('src');
foreach($data as $key => $value) {
$index = $key + 1 + $endFileIndex;
$filename = $index < 10 ? str_pad($index, 2, "0", STR_PAD_LEFT) : $index;
$filend = pathinfo($value, PATHINFO_EXTENSION);
$file = file_get_contents($value);
file_put_contents($path . $filename . "." . $filend, $file);
}
})
// 每个工作失败回调
->error(function ($errorInfo, CurlMulti $curl) {echo "Current url:{$errorInfo['info']['url']} \r\n";
print_r($errorInfo['error']);
})
->start([
// 最大并发数
'maxThread' => 10,
// 谬误重试次数
'maxTry' => 5,
]);
$output->writeln("============date:" . date("Y-m-d H:i:s") . "采集实现 ==============");
}
// 扫描目录下所有文件
protected function scanFile($path) {$result = [];
$files = scandir($path);
foreach ($files as $file) {if ($file != '.' && $file != '..') {if (is_dir($path . '/' . $file)) {$this->scanFile($path . '/' . $file);
} else {$result[] = basename($file);
}
}
}
return $result;
}
}
问题解决
        因为一般采集的申请应用 GuzzleHttp 客户端,而多线程采集是 CURL,所以运行时报 curl 状态码 60 谬误。
- 解决办法:
(1). 下载 cacert
下载地址:https://curl.haxx.se/ca/cacert.pem
(2). 批改 php.ini , 并重启
在 php.ini 中找到 curl.cainfo 改为文件的绝对路径如:curl.cainfo =E:\2setsoft\1dev\phpstudy_pro\Extensions\php\php7.4.3nts\cacert.pem
图片训练
        以上的图片曾经采集的差不多了,因为博主的图片无限,我也没有再去其余中央找,整个文件夹下的图片在 200 张左右。按理说图片当然是越多越好,然而整个分类标注起来耗时(看文章的配图,应该曾经晓得有哪几类了吧),所以就这样了。最初就是读取图片转换 Tensor 进行训练,后一篇再具体介绍吧,揭示一下。下一篇须要提前装置 Node, Http-Server,Parcel 工具。