海量数据时代如何把握人工智能先机

34次阅读

共计 3432 个字符,预计需要花费 9 分钟才能阅读完成。

作者 | 硅谷洞察
来源 | guigudiyixian

赢得人工智能先机的三大法宝:数据 + 算法 + 算力。

人工智能是一种变革性的技术浪潮,能够帮助每个行业的用户解决大大小小的问题,从探索宇宙奥秘的科学研究、到惠及民生的健康和精准医疗,再到与生活息息相关的运输和自动驾驶汽车。

人工智能的应用场景大到结合大数据和深度学习分析大型强子对撞机产生的大量原始数据;小到给语音助手装上耳朵和脑袋听懂用户的语句,并实现简单的对话或互动。

人工智能那么远,又那么近。

可以说,随着技术的不断成熟和普及,人工智能能够赋能我们来应对各种人类的挑战,科学家可以借助人工智能提高科研的生产力,加快造福全人类的进程;企业也可以通过人工智能的无限潜力创造新的收入来源并提高他们的底线;消费者也能继续看到更多新的应用程序。

今天硅谷洞察就来给大家分析一下,人工智能已经为各种行业领域带来了哪些转型影响。

超级计算机是什么?

提到宇宙研究就不得不提用于科学研究的超级计算机。小探最初听到超算这个概念是在《三体》的小说中,大刘有这么一段描述。


(2008 年出版科幻小说《三体 II:黑暗森林》片段)

浮点运算的次数代表着计算机的计算实力。而 11 年前的科幻小说早已被现实超越。在刚刚落幕的国际超算大会公布,位于田纳西州能源部橡树岭国家实验室(ORNL)由 IBM 制造的超级计算机 Summit 以 148.6 PetaFlops (千万亿次)的 HPL 记录获得了世界最强的超级计算机称号。简单算一下,Summit 计算速度已经达到《三体》中超级计算机的近 300 倍。

科学技术的发展已经超乎我们的想象,曾经遥不可及的未来也已经到来。

超级计算机,其实是指众多高性能计算机节点连接在一起,统一调度管理,从而实现强大的计算功能。简单的说就是价格在 10 万元以上的服务器。这些机器主要分布在大学或者科研机构服务的领域非常高精尖,都是关系着人类发展的重要领域,例如全球气候变化,宇宙探测分析、大脑仿真、开发新材料、生物医药、智慧城市等实际问题。

可以看得出来,这些研究的特点是大量数据需要分析模拟得出规律,从而进行预测。如果你需要模拟一大堆无厘头的物体之间的相互关系,就一定需要“高性能计算”。

举个例子,欧洲核子研究中心欧洲核子研究中心的大型强子对撞机(LHC)周长 27 公里,超过 6,000 个超导磁体,是世界上最大的机器和最先进的科学仪器。大型强子对撞机能够将质子加速到 99.9999991%的光速,并产生非常高的能量碰撞,在某些情况下比我们的太阳核心高出 100,000 倍。

这些实验产生了大量的原始数据。大型强子对撞机每秒发生多达 10 亿次碰撞,每秒产生多达 1 PB(1,024 太字节或 100 万千兆字节)的数据 流经欧洲核子研究中心的系统——远远超过世界上最重要的研究机构所能存储的数据。就需要使用专有软件以及超强的计算力才能过滤此数据。

气候预测同样需要高性能计算。气候预测,广泛来看就是对全球气流、洋流等等的预测,局限来看就是天气预报。天气预报的基本原理,就是通过气象卫星捕捉地图上每一个点的云层和气流运动轨迹,然后通过大量的计算推导出他们未来的走向。

高性能计算与人工智能深度融合

超算与人工智能的融合将引领下一代计算机体系结构和系统软件应用的发展。

研究表明,运行大型高性能计算应用程序可以通过向现有高性能计算机群 (High Performance Computing,简称 HPC) 工作流程添加深度学习功能来实现显着的效率。深度学习神经网络固有的并行性非常适合高度并行的 HPC 环境,其中极端的计算性能,大容量内存池和优化的节点间通信结构可以显着扩展深度学习网络识别结构和模式的能力。

美国能源部科学办公室与加州大学伯克利分校选择与英特尔合作,将深度学习与 HPC 基础设施相结合,创建了一个 15-PetafFlop 深度学习系统,用于解决科学模式分类问题。

这个深度学习系统将单个深度学习模型的训练扩展到科里(Cori)超级计算机上多达 9600 个基于英特尔至强融核处理器的节点。该模型能够更有效地从在数据多达 15TB 的气候数据集中提取天气模式。结果证明,处理大型复杂数据集时,将深度学习培训优化并扩展到多核 HPC 系统具有显著优势。


科里(Cori)超级计算机

除了帮助处理极其复杂的数据之外,使用 HPC 基础设施进行深度学习的 第二个主要好处是大大改善了深度学习算法训练的响应时间。

被评为全球第五快的超级计算机,德克萨斯高级计算中心 (TACC) 将使用英特尔至强铂金 8200 处理器为自己的 Frontera 系统提供动力,支持国家科学基金会资助开展的多层面先进研究。

Frontera 还将整合超过 100TB 的英特尔傲腾数据中心级持久内存,这是该技术第一次在如此大的规模上得到应用。这种将持久内存置于高性能计算系统附近的做法将能够实现极其复杂的模拟、人工智能算法和内存分析。Frontera 将有助于展现在高性能计算系统上进行大规模并行人工智能推理的可能性。

位于德克萨斯高级计算中心的超级计算机 Frontera 被评为全球第五快的超级计算机

不仅在前端的超算中心的应用,瞄准“数据”,勾画 AI 全栈解决方案的英特尔 AI 加速技术在商用领域也广泛应用。

科大讯飞是中国最具创新力的公司之一,为通信、音乐和智能玩具等行业中应用的众多语音产品提供支持。“语音引擎”无疑是科大讯飞的拳头产品之一,它已占据中文语音技术市场 70% 以上的份额。但更重要的秘诀,其实是科大讯飞的 AI 核心战略:打造以人工智能为核心的开放平台。

语音识别想要获得更好的识别效果,就需要对框架进行大量的数据训练,这将带来海量的计算工作量。在一项数据训练中,每一万小时的语音数据约产生 6000PetaFlops 的计算量,这个计算量即便是用超级计算机 Summit,也需要近 1 个小时的工作时长。

人工智能三要素是数据、算法和算力。

对于已经有了大量的数据基础的讯飞 AI 开放平台,科大讯飞 19 年的语音研发历程,让他们有自己一套独特的算法。自研了 FSMN、DFCNN 等创新的语音识别框架在神经网络、数据结构模型、数据处理方式上,也相当老道。

剩下的核心关键,就是计算力了。海量用户上传来数据后,深度学习需要对数据进行大量的训练。这将带来巨大的计算工作量。科大讯飞意识到深度学习的发展不仅需要顶层应用的精进,也离不开底层平台在计算、数据处理和算法优化上的支持。

科大讯飞很清楚,除了传统的深度学习计算平台外,还希望构建更多的、基于不同技术方案的深度学习计算平台,增加选择上的多样性。他们需要一套深度定制的人工神经网络专属芯片系统才能支撑住这个巨无霸平台既然找芯片层面的合作商,英特尔成了他们的不二选择。

经过了三年,与英特尔的合作从最开始的硬件与基础设施的支持逐步加深,科大讯飞发现英特尔在人工智能、深度学习上的硬件技术优势和能力强大之外,英特尔通过不断地对核心计算和存储产品更新迭代,对深度训练应用和算法优化,对讯飞 AI 平台的改进提供了重要助力。在讯飞 AI 云的真实环境测试中,第二代英特尔至强可扩展处理器已经能让 CPU 达到甚至超过原来 GPU 的性能。

现在,双方的深度合作在代码层级展开,不仅可以推动科大讯飞训练平台的优化,提升其工作效率,其反馈的需求和经验,也促进了用于人工智能的新一代英特尔至强融核处理器(Knights Mill),以及其他英特尔深度学习软件工具和库的优化。

不得不说,懂算法的科大讯飞与懂计算的英特尔强强联合的模式,构建了一个业界顶级的人工智能开放平台。离能看会想,能听会讲的人工智能,越来越近了。

英特尔打破 AI 理论与现实的壁垒

对于如何更高效地利用和处理数据,全世界范围内的服务提供商和最终用户都看到了人工智能带来的诸多益处。

英特尔对数据处理很有信心,认为从数据科学工作站到云端,最后再到推理设备,一整套完备的工作流程至关重要,因为这不仅关系到数据处理,也关系到数据的移动和存储。

从硬实力到软实力,英特尔不断在自己的全套肌肉中融入智能,加速 AI 的实践应用。就像他们不断声明的一样,英特尔正积极的向人工智能公司转型。

在刚刚结束的 Hot Chips 2019 上,英特尔公布了首款 AI 芯片 Nervana 神经网络处理器的技术细节。两款处理器都将用于数据中心,NNP-T 用于云端训练,NNP-I 用于云端推理。

随着 AI 芯片的推出,以全面 AI 优化的全栈式解决方案押宝人工智能未来,英特尔的版图似乎更加完整了。

你觉得赢下人工智能时代,企业最需要哪些技巧和实力?欢迎大家留言讨论。

正文完
 0