作者 |SANYA4
编译 |VK
起源 |Analytics Vidhya
介绍
当初神经网络无处不在。各大公司都在硬件和人才上大肆挥霍,以确保他们可能构建最简单的神经网络,并推出最好的深度学习解决方案。
尽管深度学习是机器学习的一个相当古老的子集,但直到 20 世纪 10 年代初,它才失去应有的认可。明天,它曾经风靡寰球,吸引了公众的留神。
在本文中,我想对神经网络采取一种略微不同的办法,并理解它们是如何造成的。
神经网络的起源
神经网络畛域最早的报道始于 20 世纪 40 年代,沃伦·麦卡洛克和沃尔特·皮茨尝试用电路建设一个简略的神经网络。
下图显示了一个 MCP 神经元。如果你学的是高中物理,你会发现这看起来很像一个简略的 NOR 门。
l 论文展现了借助信号的根本思维,以及如何通过转换所提供的输出做出决策。
McCulloch 和 Pitts 的论文提供了一种用形象的术语形容大脑性能的办法,并表明神经网络中连贯的简略元素能够具备微小的计算能力。
只管它具备开创性的意义,但这篇论文简直没有引起人们的留神,直到大概 6 年后,唐纳德·赫伯(下图)发表了一篇论文,强调了神经通路每次被应用时都会增强。
请记住,那时计算机还处于初级阶段,IBM 在 1981 年推出了第一台 PC(IBM5150)。
快进到 90 年代,许多对于人工神经网络的钻研曾经发表。罗森布拉特在 20 世纪 50 年代创造了第一台感知器,1989 年 Yann LeCun 在贝尔实验室胜利地实现了反向流传算法。到了 20 世纪 90 年代,美国邮政局曾经能够读取信封上的邮政编码。
咱们明天所知的 LSTM 是在 1997 年创造的。
如果 90 年代曾经打下了这么多根底,为什么要等到 2012 年能力利用神经网络实现深度学习工作?
硬件与互联网的衰亡
深度学习钻研遇到的一个次要挑战是不足可反复的钻研。到目前为止,这些停顿都是实践驱动的,因为牢靠数据的可用性很低,硬件资源无限。
在过来的二十年里,硬件和互联网畛域获得了长足的提高。在 20 世纪 90 年代,IBM 个人电脑的 RAM 为 16KB。在 2010 年,个人电脑的均匀内存在 4GB 左右!
当初,咱们能够在咱们的电脑上训练一个小型模型,这在 90 年代是无奈设想的。
游戏市场在这场反动中也表演了重要角色,像 NVIDIA 和 AMD 这样的公司在超级计算机上投入巨资,以提供高端虚构体验。
随着互联网的倒退,为机器学习工作创立和散发数据集变得容易得多。
从 Wikipedia 中学习和收集图片变得更容易。
2010 年:咱们的深度学习时代
ImageNet:2009 年,古代深度学习时代的开始,斯坦福大学的李飞飞创立了 ImageNet,这是一个大型的可视化数据集,被誉为是在世界范畴内催生人工智能反动的我的项目。
早在 2006 年,李是伊利诺伊大学香槟分校的新传授。她的共事们会一直地探讨新的算法来做出更好的决策。然而,她看到了他们打算中的缺点。
如果在反映真实世界的数据集上训练,那么最好的算法也不会运行得很好。ImageNet 由超过 2 万个类别的 1400 万张图像组成,到目前为止,依然是物体辨认技术的基石。
公开竞争 :2009 年,Netflix 举办了一个名为 Netflix Prize 的公开比赛,以预测电影的用户收视率。2009 年 9 月 21 日,BellKor 的求实混沌团队以 10.06% 的劣势击败了 Netflix 本人的算法,取得了 100 万美元的奖金。
Kaggle 成立于 2010 年,是一个面向寰球所有人举办机器学习比赛的平台。它使钻研人员、工程师和外乡的程序员可能在解决简单的数据工作时冲破极限。
在人工智能凋敝之前,人工智能的投资约为 2000 万美元。到 2014 年,这项投资增长了 20 倍,谷歌、Facebook 和亚马逊等市场领导者拨出资金,进一步钻研将来的人工智能产品。这一波新的投资浪潮使得深度学习畛域的招聘人数从几百人减少到数万人。
结尾
只管起步迟缓,但深度学习曾经成为咱们生存中不可避免的一部分。从 Netflix 和 YouTube 举荐到语言翻译引擎,从面部辨认和医学诊断到主动驾驶汽车,没有一个畛域是深度学习没有涉及的。
这些停顿拓宽了神经网络在改善咱们生存品质方面的将来范畴和利用。
人工智能不是咱们的将来,而是咱们的当初,它才刚刚开始!
原文链接:https://www.analyticsvidhya.c…
欢送关注磐创 AI 博客站:
http://panchuang.net/
sklearn 机器学习中文官网文档:
http://sklearn123.com/
欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/