关于人工智能:神经网络简史

作者|SANYA4
编译|VK
起源|Analytics Vidhya

介绍

当初神经网络无处不在。各大公司都在硬件和人才上大肆挥霍,以确保他们可能构建最简单的神经网络,并推出最好的深度学习解决方案。

尽管深度学习是机器学习的一个相当古老的子集,但直到20世纪10年代初,它才失去应有的认可。明天,它曾经风靡寰球,吸引了公众的留神。

在本文中,我想对神经网络采取一种略微不同的办法,并理解它们是如何造成的。

神经网络的起源

神经网络畛域最早的报道始于20世纪40年代,沃伦·麦卡洛克和沃尔特·皮茨尝试用电路建设一个简略的神经网络。

下图显示了一个MCP神经元。如果你学的是高中物理,你会发现这看起来很像一个简略的NOR门。

l论文展现了借助信号的根本思维,以及如何通过转换所提供的输出做出决策。

McCulloch和Pitts的论文提供了一种用形象的术语形容大脑性能的办法,并表明神经网络中连贯的简略元素能够具备微小的计算能力。

只管它具备开创性的意义,但这篇论文简直没有引起人们的留神,直到大概6年后,唐纳德·赫伯(下图)发表了一篇论文,强调了神经通路每次被应用时都会增强。

请记住,那时计算机还处于初级阶段,IBM在1981年推出了第一台PC(IBM5150)。

快进到90年代,许多对于人工神经网络的钻研曾经发表。罗森布拉特在20世纪50年代创造了第一台感知器,1989年Yann LeCun在贝尔实验室胜利地实现了反向流传算法。到了20世纪90年代,美国邮政局曾经能够读取信封上的邮政编码。

咱们明天所知的LSTM是在1997年创造的。

如果90年代曾经打下了这么多根底,为什么要等到2012年能力利用神经网络实现深度学习工作?

硬件与互联网的衰亡

深度学习钻研遇到的一个次要挑战是不足可反复的钻研。到目前为止,这些停顿都是实践驱动的,因为牢靠数据的可用性很低,硬件资源无限。

在过来的二十年里,硬件和互联网畛域获得了长足的提高。在20世纪90年代,IBM个人电脑的RAM为16KB。在2010年,个人电脑的均匀内存在4GB左右!

当初,咱们能够在咱们的电脑上训练一个小型模型,这在90年代是无奈设想的。

游戏市场在这场反动中也表演了重要角色,像NVIDIA和AMD这样的公司在超级计算机上投入巨资,以提供高端虚构体验。

随着互联网的倒退,为机器学习工作创立和散发数据集变得容易得多。

从Wikipedia中学习和收集图片变得更容易。

2010年:咱们的深度学习时代

ImageNet:2009年,古代深度学习时代的开始,斯坦福大学的李飞飞创立了ImageNet,这是一个大型的可视化数据集,被誉为是在世界范畴内催生人工智能反动的我的项目。

早在2006年,李是伊利诺伊大学香槟分校的新传授。她的共事们会一直地探讨新的算法来做出更好的决策。然而,她看到了他们打算中的缺点。

如果在反映真实世界的数据集上训练,那么最好的算法也不会运行得很好。ImageNet由超过2万个类别的1400万张图像组成,到目前为止,依然是物体辨认技术的基石。

公开竞争:2009年,Netflix举办了一个名为Netflix Prize的公开比赛,以预测电影的用户收视率。2009年9月21日,BellKor的求实混沌团队以10.06%的劣势击败了Netflix本人的算法,取得了100万美元的奖金。

Kaggle成立于2010年,是一个面向寰球所有人举办机器学习比赛的平台。它使钻研人员、工程师和外乡的程序员可能在解决简单的数据工作时冲破极限。

在人工智能凋敝之前,人工智能的投资约为2000万美元。到2014年,这项投资增长了20倍,谷歌、Facebook和亚马逊等市场领导者拨出资金,进一步钻研将来的人工智能产品。这一波新的投资浪潮使得深度学习畛域的招聘人数从几百人减少到数万人。

结尾

只管起步迟缓,但深度学习曾经成为咱们生存中不可避免的一部分。从Netflix和YouTube举荐到语言翻译引擎,从面部辨认和医学诊断到主动驾驶汽车,没有一个畛域是深度学习没有涉及的。

这些停顿拓宽了神经网络在改善咱们生存品质方面的将来范畴和利用。

人工智能不是咱们的将来,而是咱们的当初,它才刚刚开始!

原文链接:https://www.analyticsvidhya.c…

欢送关注磐创AI博客站:
http://panchuang.net/

sklearn机器学习中文官网文档:
http://sklearn123.com/

欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理