共计 1526 个字符,预计需要花费 4 分钟才能阅读完成。
深度学习,听到这个词大家必定一点都不生疏,没错,明天开始,小 Mi 率领大家进入全新的系列——跟着小 Mi 一起深度学习,让咱们有态度地深度学习!
概念辨别
那么有人就会问了,不是曾经学过机器学习了吗?还须要学习深度学习干啥?其实在机器学习这块,小 Mi 只是简略给大家介绍了各种学习的算法,而深度学习算得上是机器学习的一个分支,咱们当初呢就是筹备把这个分支给它摘出来着重介绍给大家。总结来说,机器学习是一种实现人工智能的办法,而深度学习则是一种实现机器学习的技术。这样大家是不是曾经理清了“机器学习”、“深度学习”、“人工智能”这几个概念的区别和分割啦~
神经网络
最后的深度学习是利用深度神经网络来解决特色表白的一种学习过程。
置信大家高中数学都学过函数这个概念,,是输出,示意输入后果,函数 F 具体的模式是怎么样的,取决于之间一一对应的关系。那个时候总记得期末考试总会出那么一两道简单的函数题,波及到根号呀、对数呀什么的,然而绝对于神经网络来说相对是小巫见大巫,深度学习中蕴含多个隐含层的神经网络构造其实就相当于函数 F,只是更加简单了不少。
上图是一个神经网络的大抵构造,这是一种全连贯的连贯形式,即每层中的任意个神经元都与下一层的全副神经元相连接,而后每个连贯之间都有一组参数。该神经网络别离蕴含输出层、输入层,以及 n 个暗藏层,如果输出和输入之间的越简单,那么就可能须要更多的暗藏层来计算最终的后果。
那么问题来了,是不是暗藏层越多越好呢?显然并不是,首当其冲须要解决计算复杂度的问题,毕竟各种参数的减少,计算量是须要与硬件设施相匹配的;再者就算解决了这样的问题,过于深的神经网络在求解过程中很容易陷入部分最优解,而非全局最优解。
前景和挑战
不过就算这样,各路深度学习畛域的大佬各显神通,2016 年在阿尔法狗 3:0 完胜人类围棋冠军柯洁之后,深度学习的概念一夜之间火遍寰球,火到宇宙,火到每个人的心头上,哈哈。
因而深度学习在很多畛域都获得了很 ** 展,在图像识别、语音辨认等方面曾经获得了不凡的冲破,也胜利进入了咱们的生存中。
置信大家通过某全能王曾经实现了文字辨认的性能;某飞录音笔也能够实现录音转成文字;谷歌反对 100 种语言的即时翻译,速度之快宛如闪电侠;主动驾驶汽车行业也热火朝天。
然而在大数据情景下,比较复杂或表达能力强的模型,能够充沛开掘海量数据中的信息。随着深度模型变得更弱小,从大数据中发掘出的信息往往更有价值。比方语音辨认所波及的声学建模面临的是高达十亿到千亿级别的样本训练。(这个时候是不应该打个广告!@MindSpore)
另外利用并行计算平台来实现海量数据训练的问题也是十分必要的,现通常采纳的随机梯度法,并不能在多个计算机之间并行,不过这个问题咱们 MindSpore 就做的很好了,MindSpore 主动并行提供了 5 维的并行形式:数据并行、算子级模型并行、Pipeline 模型并行、优化器模型并行和重计算,并且在图编译阶段,有机交融了 5 个维度的并行。这 5 维并行形式组合起来形成了盘古的并行策略。(没错,我真的来打广告了!)当然了,具体到解决各种服务需要方面,还须要进一步降级和欠缺。
学习思路
废话说了那么多,还是要介绍一下咱们这个系列的具体内容,深度学习的简略介绍明天就曾经说过了哈,后续先给大家介绍各种相干的基础知识,比方回归问题呀、分类问题呀,而后具体介绍一些神经网络,比方咱们常见的卷积神经网络、循环神经网路等等,以及一些解决的细节问题,就好比咱们上大学一样,本迷信的是大方向,研究生钻研了其中的一个小方向(能够类比机器学习和深度学习两者关联)
总之,小 Mi 对于接下来的学习非常感兴趣,也对深度学习的将来相当看好,心愿大家捧场呀!咱们下期再见咯(挥手再见~)