关于机器学习:小Mi的MindSpore学习之路机器学习汇总初冬隆重来袭

33次阅读

共计 1981 个字符,预计需要花费 5 分钟才能阅读完成。

小 Mi 机器学习系列的汇总网页终于千呼万唤进去啦!!!其实早在做这个系列的一开始,小 Mi 就曾构想做一个这样的货色,没想到转瞬刚小半年,明天终于全副更新结束!好开心,好冲动,要飞起~~

title.png

1. 介绍篇:

机器学习就是对于某类工作 T 和性能度量 P,如果一个计算机程序在 T 上以 P 掂量的性能随着教训 E 而自我完善,那么就能够称这个计算机程序在从教训 E 学习。是不是有点难以了解?没关系,如果你想理解什么是机器学习的话,那么小 Mi 就带你钻研!

介绍篇.png

2. 那些咱们快要忘记的线性代数:

话说矩阵、向量还记得不,逆和转置到底是什么玩意儿?你的大学老师是不是曾经哭晕在厕所了?动动手指戳戳上面链接一起疾速温习线性代数吧!

那些咱们快要忘记的线性代数.png

3. 单变量线性回归:

它来了它来了!第一个机器学习算法它来了!单变量线性回归它来了!!!如何应用无效的梯度降落法主动找出能使代价函数最小的参数?

单变量线性回归(一).png 单变量线性回归(二).png

4. 多变量线性回归:

学了单变量线性回归,咋能忘了多变量?!多变量线性回归有哪些多维特色呢?对应的梯度降落又有哪些不一样的技巧呢?

多变量线性回归(一).png 多变量线性回归(二).png

5. 逻辑回归:

不一样的逻辑回归算法与线性回归有什么不同呢?梯度降落作为 yyds 在逻辑回归中是否仍然存在真香定理?如果你想深刻学习什么是逻辑回归的话,那么小 Mi 就带你钻研!

逻辑回归(一).png 逻辑回归(二).png

6. 神经网络表述:

随着硬件计算能力的晋升,神经网络显然曾经成为许多机器学习问题解决的首要办法之一。简略的神经网络模型想必大家很好了解,那么在面对更加简单的函数时神经网络如何运行呢?面对多类别分类问题时又该如何解决问题呢?

神经网络表述(一).png 神经网络表述(二).png

7. 神经网络的学习:

——什么?神经网络曾经间断更新两期了,还在继续更新中?!
——哎,等等,等等我。
不必焦急,明天小 Mi 还带大家学习代价函数、前向流传和反向流传以及各种解决小技巧!

神经网络的学习(上).png 神经网络的学习(下).png

8. 对于利用机器学习时的一些倡议:

如果预测数据与理论数据相差较大,是抉择应用更多的训练样本还是缩小特色的数量?如果你想学习如何利用机器学习,那么小 Mi 带大家具体问题具体分析,隔靴搔痒!

对于利用机器学习时的一些倡议.png

9. 机器学习零碎的设计:

设计机器学习零碎时误差剖析是在穿插验证集上进行还是测试集?Precision 和 Recall 应该如何衡量?如何设计一个残缺的机器学习零碎?

机器学习零碎的设计.png

10. 反对向量机:

与逻辑回归相比,反对向量机在学习非线性方程时提供了一种更为清晰、弱小的形式,其受欢迎水平可想而知。更多对于反对向量机的内容请追寻小 Mi,咱们全面学习,一网打尽!

反对向量机(上).png 反对向量机(中).png

反对向量机(下).png

11. 聚类算法:

无监督学习算法 -K- 均值聚类算法来咯!通过一直的簇调配并同时一直地挪动聚类核心来自主学习无标签数据。如果你理解更多,那么小 Mi 带你钻研!

聚类算法.png

12. 如何实现降维:

数据集冗余是不是能够缩小数据特色,实现数据的降维?而最常见的降维算法 - 主成分剖析算法又是如何确定主成分的数量、将数据从 n 维降到 k 维的呢?

如何实现降维.png

13. 异样检测:

异样检测尽管次要用于非监督学习问题,但又和一些监督学习问题很相似。两者如何辨别并且怎么迷信地设计一个异样检测零碎呢?

异样检测(一).png 异样检测(二).png

14. 举荐零碎:

炽热的双十一各种买买买!小 Mi 点开某橙色软件一看,举荐商品真的都可可恶爱,超级合乎小 Mi 的 taste!那么这其中的原理到底什么样呢?

举荐零碎.png

15. 大规模机器学习:

如果有一个低方差模型,减少数据集的规模能够帮忙取得更好的后果。咱们应该怎么应答一个有 100 万条记录的训练集?大规模机器学习闪亮退场~~

大规模机器学习.png

16. 图片文字辨认:

小 Mi 机器学习系列的最初一期啦!还在等什么呢?让咱们挥手不说再见,一起论坛见!

图片文字辨认.png

长亭外,古道边,总会有别离的时候!不过咱们明天的别离只是机器学习系列的暂告段落!前期的话小 Mi 还会持续推出其余新的系列,当然啦,也欢送大家持续跟咱们共同进步,学习新的常识,同时别忘了给咱们提意见哦~(笔芯)

最初最初要尤其!特地!非常!感激的吴恩达老师,小 Mi 的这个机器学习系列都是跟着吴恩达老师的视频前面一个个学习的,真的不得不说,大佬就是大佬,简单的实践都能找到简略的实例来以便咱们的了解,膜拜!

PS: 哈哈,还是没有完结!有一点小 Mi 要在此发个小布告跟大家解释下!小 Mi 的读音,念成小 Mi(“小咪”),不是大家可能会错认的某知名品牌的读音呀~

好啦,咱们下个系列再见哦~(挥手!)

正文完
 0