共计 2545 个字符,预计需要花费 7 分钟才能阅读完成。
骄阳似火,就想待在空调房里哪都不去,那么无妨借此机会学学技术吧,兴许正好能帮你解决工作中的辣手问题呢。2020 年 7 月,咱们持续与大家分享了大量无关 Amazon Web Services (AWS) 的 AI、机器学习、深度学习等技术文章,是时候简略回顾一下了。
Amazon SageMaker
2020 年 4 月,Amazon SageMaker 曾经在由光环新网经营的 AWS 中国(北京)区域和由西云数据经营的 AWS 中国(宁夏)区域正式凋谢。作为一种机器学习平台服务,Amazon SageMaker 通过不断丰富的性能组件让数据科学家、算法工程师、业务开发者都能轻松驾驭机器学习。它性能到底有多弱小?又有哪些企业应用 Amazon SageMaker 造就胜利案例?欢送浏览:机器学习时代的到来,他们用 Amazon SageMaker 来做这些!
机器学习工作流是一个迭代过程,须要做出许多决策,而所有决策都将影响学习零碎的后果。此外,咱们还须要结合实际需要,抉择一种最适宜的学习零碎,到底是监督学习还是无监督学习?或者半监督学习?强化学习?整个流程波及太多技术和决策,往往会让老手感到困惑。无妨通过一个实例,来残缺理解一下机器学习的工作流程到底该如何构建吧。欢送浏览:哪些餐厅评估最高?实例上手,理解机器学习工作流的构建。
机器学习
ERNIE(Enhanced Representation through Knowledge Integration)是一种语义了解框架,旨在应用纯文本捕捉语义模式的根底之上,进一步通过常识加强的形式,联合语义中的常识关系来提供更加丰盛的结构化体现。该框架在最近举办的寰球最大规模语义评测较量 SemEval 2020 中,一举斩获了包含视觉媒体的要害文本片段开掘、多语攻击性语言检测和混合语种的情感剖析等在内的 5 项世界冠军!更棒的是,Amazon SageMaker 已提供了针对 ENRIE 2.0 的全面反对!进一步理解:ERNIE |「最棒」的语义了解框架,AWS 天然全力支持
创立一个牢靠、高效的机器学习推理服务须要做很多投入,例如创立应用程序,打包和部署,模型的加载,终端节点的运行……其中很多环节都须要简单的开发和运维工作。AWS 最近公布了实用于 Kubernetes 的 Amazon SageMaker Operator,能够帮忙开发者用 SageMaker 托管的终端节点加强现有 Kubernetes 集群,大幅简化相干运维工作的累赘和难度。欢送浏览:Kubernetes 上的机器学习推理,能够通过这种形式进一步加强。
依据业务需要创立一种或几种 ML 模型,而后依据模型的推理取得业务所需的决策依据,这种基于群组或细分市场来建设模型的做法想必大家都很相熟了。然而有些场景中,咱们可能须要基于个体用户的数据来建设模型,以便取得更精确的后果,但这种做法往往会导致部署模型的老本大幅提高,并且生产环境中,如此多的模型会变得难以治理。Amazon SageMaker 多模型终端节点性能解决了这个问题。欢送浏览:给每个用户创立一个独有 ML 模型,这是一种怎么的体验?
用过 AWS EC2 实例的用户可能都晓得,EC2 有一种 Spot 实例,能够将 AWS 中暂未应用的 EC2 容量提供给用户,相比按需实例,最多可享受 90% 的价格折扣。相似的,最近 Amazon SageMaker 开始提供托管 Spot 训练性能。这是一个基于 Amazon EC2 Spot 实例的新性能,与在 Amazon SageMaker 中应用按需实例相比,最高可节约 90% 的 ML 训练老本。进一步理解:用 Spot 实例训练 ML 模型,谁说训练老本降不下来!
机器学习的流程之所以如此艰巨,局部起因在于,这个畛域存在许多经验丰富的从业者才晓得的最佳实际。对于数据迷信畛域的老手,可能会破费大量工夫践行一种自认为正确的办法。如果专家们能够将本人的最佳实际编纂成一个简略易用的软件包,供所有开发人员应用,后果会怎么样?这就是自动化机器学习(AutoML)背地的理念,也是 AutoGluon AutoML 库的设计理念,借此,咱们能够训练最先进的机器学习模型,以进行图像分类、对象检测、文本分类和表格局数据预测,而简直无需具备机器学习方面的教训。具体理解:机器学习 | 呐,你曾经是成熟的机器了,学习问题请本人搞定!
构建和训练 ML 模型是迷信和工艺的联合。从收集和筹备数据集,到应用不同算法进行试验以找出最佳训练参数,ML 从业者须要革除很多阻碍能力提供高性能模型。然而在训练过程中,很多人常常会遇到一些辣手的问题,导致模型无奈正确提取或难以学习数据集中的模型,并且最终往往发现,这些问题大部分是因为不适当的参数初始化、蹩脚的超参数组合、咱们本人代码中的设计问题等造成的。最近公布的 Amazon SageMaker Debugger 可自动识别机器学习(ML)训练作业中呈现的简单问题,帮忙咱们更疾速无效地创立模型。欢送浏览:用调试器,让你的 ML 模型脱离墨菲定律困扰。
深度学习
在深度学习畛域,推理是应用训练模型进行预测的过程。对于应用 PyTorch 等框架的深度学习应用程序,推理老本占计算成本的 90%。因为深度学习模型须要不同数量的 GPU、CPU 和内存资源,为推理抉择适当的实例有肯定难度。Amazon Elastic Inference 通过反对将适量 GPU 反对推理减速附加到任何 Amazon SageMaker 或 EC2 实例或 Amazon ECS 工作中,顺利解决了这个问题,借此帮忙 Elastic Inference 用户在降低成本的同时,大幅改善 PyTorch 模型在 Amazon SageMaker 上的提早。进一步理解:PyTorch 模型推理,提速同时降低成本,这到底怎么做到的?
人工智能
随着机器学习技术的炽热,人们发现用 GPU 来进行 ML 模型的训练是一种比拟好的做法,速度更快,性能更强。然而毕竟 GPU 诞生的本意就是用于解决计算机图像的,并非 AI 专用,那么有没有专供机器学习应用的芯片,能够实现比 GPU 训练更快的速度,以及更低的老本?针对这个问题,AWS 本人设计并打造了 Inferentia 芯片,具备高性能、低提早、高易用等特点,可能以更低成本提供更高性能的机器学习推理能力。进一步理解:AWS 为机器学习推理开发的专用芯片,你不想体验一下?