关于机器学习:GPU是AI时代的算力核心

36次阅读

共计 1502 个字符,预计需要花费 4 分钟才能阅读完成。

人工智能 (Artificial Intelligence),是钻研、开发用于模仿、延长和扩大人的智能的实践、办法、技术及利用零碎的一门新的技术迷信。它起源于 20 世纪五六十年代,通过半个多世纪的演变,经验了符号主义、连贯主义和行为主体三次浪潮的相互交织倒退,到现在,作为一项新兴的通用技术,正在推动着社会生存与各行各业的巨变。现阶段人们普遍认为,深度学习 + 大规模计算 + 大数据 = 人工智能。什么是深度学习?在人工智能畛域,机器学习是其中的一个技术流派,通过从已知样本中提炼法则来取得判断未知样本的智能;深度学习则是机器学习的一种,它所学习进去的模型是深度神经网络。具体来说,机器学习能够了解为机器从已知的教训数据(样本)中,通过某种特定的办法(算法),本人去寻找提炼(训练 / 学习)出一些法则(模型);提炼出的法则就能够用来判断一些未知的事件(预测),自 2006 年以来,机器学习畛域深度学习(Deep Learning)获得了突破性的停顿。深度学习是一种非凡的机器学习,在语音和图像识别方面获得的成果,远远超过先前相干技术。它通过学习将世界示意为嵌套的概念层次结构来实现弱小的性能和灵活性,每个概念都是依据更简略的概念进行定义的,而更形象的示意则用不那么形象的概念计算出来。深度学习算法分「训练」和「推理」两个过程。简略来讲,人工智能须要以大数据为根底,通过「训练」失去各种参数(也就是模型),而后把模型传递给「推理」局部,失去最终后果。神经网络分为前向计算(包含矩阵相乘、卷积、循环层)和后向更新(次要是梯度运算)两类,「训练」是两者兼而有之,「推理」次要是前向计算,都蕴含大量并行运算。一般来说,「训练 + 推理」在云端进行,终端人工智能硬件只负责「推理」。算力:人工智能的外围因素数据。人类要获取肯定的技能都必须通过一直的训练,能力游刃有余,AI 也是如此。人工智能的根基是训练,只有通过大量的训练,神经网络能力总结出法则,利用到新的样本上。只有领有大量数据,且能笼罩各种可能的场景,能力失去一个体现良好的智能模型。算力。有了数据之后,须要进行一直地反复的训练。深度学习中有三个概念叫 Epoch(“一代训练”),Batch(“一批数据”),Iteration(“一次训练”)。仅仅将训练集从头到尾训练一遍是不够的,须要把训练集翻来覆去训练很多轮。训练和推理都须要弱小算力的撑持。算法。神经网络算法和深度学习是目前最支流的人工智能算法。算力是人工智能的三大因素之一,须要芯片的撑持,这是人工智能进一步倒退并实现产业化的要害。

人工智能的研究者抉择了 GPU 最后,并不是 GPU 抉择了人工智能,而是人工智能的研究者抉择了 GPU,进而成就了 GPU:2012 年 Alex Krizhevsky(前谷歌计算机科学家)利用深度学习 +GPU 的计划,一举博得 Image Net LSVRC-2010 图像识别大赛,并奇迹般地将辨认成功率从 74% 晋升到 85%。NVIDIA 敏锐地洞察到了这一趋势,于是消耗微小的人力物力优化基于自家 GPU 的 CUDA 深度学习生态系统,在三年工夫里将 GPU 性能晋升了 65 倍,并提供基于其 GPU 的从后端模型训练到前端推理利用的全套深度学习解决方案,使得个别的开发人员都能够非常容易地应用 GPU 进行深度学习开发或高性能运算,从而奠定了其目前的王者之位。GPU 是 AI 时代的算力外围,但 AI 算力的形成不仅仅只是 GPU 减速芯片,还须要构建包含网络互联、操作系统、深度学习框架及相应 SDK、算法与应用程序等,造成一个残缺的计算生态系统。能够说,是人工智能和 GPU 相互成就了对方:人工智能算法促成 GPU 的倒退,而 GPU 也让算法更加简略。

正文完
 0