MindSpore Vision是一个CV的工具箱。据说它能够帮忙大家来复现经典模型,并开发本人的模型(这个张小白没本事)。那只有先看看能不能复现了。
它能够提供 分类,骨干网络、引擎、数据集、工具等高级性能,其架构如下:
咱们上面就用MindSpore 1.7的Windows版本试一下吧。
先用conda创立一个Python 3.7.5的环境:
conda create -n vision python=3.7.5 -y
而后进入该环境,确认是Python 3.7.5
conda activate vision
python -V
再到官网 mindspore.cn/install 获取 mindspore 1.7.0 for windows CPU版本的装置命令:
接着执行这段命令:
pip install https://ms-release.obs.cn-nor... --trusted-host ms-release.obs.cn-north-4.myhuaweicloud.com -i https://pypi.tuna.tsinghua.ed...
实现MindSpore的装置。
接着 关上 mindspore.cn/versions
找到 1.7.0版本对应的vision安装盘的门路(右键复制链接地址)
再去conda环境执行这个命令:
pip install https://ms-release.obs.cn-nor... --trusted-host ms-release.obs.cn-north-4.myhuaweicloud.com -i https://pypi.tuna.tsinghua.ed...
当装置实现MindSpore本尊及 MindSpore Vision副产品后,须要再下载一下vision的代码仓:
找到LeNet的目录:
先执行 训练,以取得 数据集和生成ckpt。当然须要记得加上target_target=CPU参数,否则代码默认是GPU
python lenet_mnist_train.py --data_url ./mnist --download True --device_target=CPU
急躁期待训练完结:
。。
这个时候会生成 lenet目录下的ckpt文件:
在训练之前会下载MNIST数据集,并被解压到指定地位:
训练集:
测试集:
上面开始执行评估:
python lenet_mnist_eval.py --data_url ./mnist --pretrained True --download True -device_target=CPU
报错了,那么咱们来跟踪一下:
在 L:\Users\xishu\anaconda3\envs\vision\Lib\site-packages\mindspore\train\serialization.py代码中减少以下日志:
再次运行:
python lenet_mnist_eval.py --data_url ./mnist --pretrained True --download True -device_target=CPU
发现输出的时候ckpt_file_name就不对。
临时强行改为 后面训练好的ckpt文件:
ckpt_file_name, filter_prefix = _check_checkpoint_param("./lenet/lenet-10_1875.ckpt", filter_prefix)
再从新评估:
python lenet_mnist_eval.py --data_url ./mnist --pretrained True --download True -device_target=CPU
能够通过评估。
而后开始推理。
将 手写数字 4的照片拷贝到 L:\AI\vision\examples\classification\lenet 目录下:
能够用大图标看看:
而后开始推理:
python lenet_mnist_infer.py --data_url mnist.jpg --pretrained True --device_target=CPU
可见4被胜利推理进去。
张小白再手写一个8字看看:(须要28X28像素的黑白照片)
关上画图,先设置图片属性:
而后画一个8:
将其另存为 eight.jpg
用大图标看看:
而后开始推理:
python lenet_mnist_infer.py --data_url eight.jpg --pretrained True --device_target=CPU
可见这样也是胜利的。只管体验MindSpore Vision的过程中还存在一点小瑕疵,然而总体上还是不错的。
邮箱:zhanghuI_china2020@163.com
(全文完,谢谢浏览)