关于亚马逊云科技:亮点回顾|2022-reInvent-Recap创新源动力深度学习技术洞察与实践

3次阅读

共计 3247 个字符,预计需要花费 9 分钟才能阅读完成。

2022 年 12 月 30 日,由 SegmentFault 思否社区联结亚马逊云科技独特举办的“2022 re:Invent Recap:翻新源能源——深度学习技术洞察与实际”线上沙龙流动圆满闭幕。

最近几年,AI 在 自然语言解决(NLP)畛域的冲破不断创新,首当其冲便是作为全新聊天机器人模型的“ChatGPT”等 AIGC 范式的内容生产工具。随着越来越多 AIGC 守业新贵们迅速占据市场,寒冬里业界对新一轮 AI 守业浪潮的期许也被彻底点燃,如何借助深度技术帮忙每一个开发者让产品翻新变得更简略成为当下面临的新挑战。

始于 2012 年的亚马逊云科技 re:Invent 寰球大会作为云计算畛域备受业界注目的流动,每年都会吸引有数来自世界各地开发者们的关注。本场沙龙将围绕 AI 深度学习技术 开展进一步探讨,并从底层原理及大量业务实战案例登程,分享 AI 技术在产品翻新的实战经验以及 AI 工程师的转型翻新之路。来自 Zilliz 首席工程师焦恩伟、NebulaGraph 我的项目开发者布道师古思为、亚马逊云科技解决方案架构师林业、亚马逊云科技机器学习解决方案架构师李雪晴 受邀缺席本场沙龙,并进行了主题演讲。

以后,AI 正一直向着产业化的方向演变,深度学习平台已成为企业及开发者利用 AI 技术必备的“杀手锏”。最新公布的 IDC 数据显示,在 AI 技术应用方面抉择开源深度学习框架的企业及开发者比例高达 86.2%。那么在深度学习技术转变过程中,如何简化利用开发的流程及其数据管理问题呢?Zilliz 首席工程师焦恩伟首先为咱们带来了主题为 “Milvus: 深度学习利用‘工业革命’的新引擎”的分享,以社区实际的角度,对深度学习工业化浪潮下 Milvus 凭借本身性能劣势解决分级化数据等多场景需要做了解读。

Milvus 钻研团队借助数据 framework 标准化后工业化的“窗口”胜利抢占赛道,2019 年 4 月正式公布 1.0 版本后一直迭代,并于 2020 年 3 月退出 Linux 基金会,至此 Milvus 终于倒退为绝对成熟的开源产品。在本场分享中,焦恩伟介绍了最后在海量数据下如何搭建“以图搜图”Demo 零碎以及向量数据库 Milvus 概念及其架构。作为基于亚马逊云科技的微服务云原生架构 SaaS,Milvus 2.0 下面就包含了十分多组件及节点;此外,Milvus 的云服务版本 ——Zilliz Cloud 基于亚马逊云科技云平台提供服务,实现了不同集群间应用同一资源池来聚合计算,极大节俭了用户的节点开销及老本。焦恩伟还分享了深度学习的利用案例,并对下一代 Milvus 演进的布局做了展现。

焦恩伟具体解读了 Milvus 的性能劣势,从视频查重、商品举荐、商品搜寻、App 举荐等方面案例对 Milvus 在社区的广大利用空间做了分享,并从 AI 中台、AI 业务、高性能、大数据这四个场景对 Milvus 的适用人群做了剖析。他示意,向量数据在深度学习场景里有着宽泛且超多的利用前景,接下来会更踊跃拥抱 AI 生态系统,期待与业界上下游厂商做更多单干。在将来布局环节,他提到了下一步 Milvus 将反对 SQL,以升高 AI 的应用、学习门槛,让更多的非研发同学也能疾速享受到以后技术的改革。同时打造可能服务不同的业务部门多租户平台,并做到极致的性能优化及丰盛的 AI 生态接入。最初,焦恩伟也对网友提出的互动问题如“Muas 如何进行性能调优”“哪些因素会影响 CPU 的使用率?”“向量数据库次要利用方向”别离做了解答。

AI 时代,应用神经网络来学习图构造数据、提取图构造数据特色模式,以满足图学习工作需要的算法曾经被广泛利用在咱们日常数字生存的多个畛域。在第二场演讲中,NebulaGraph 我的项目开发者布道师古思为就为咱们带来了以“搭建基于图神经网络的实时欺诈检测零碎”为主题的分享,深刻解读了如何利用图深度学习和图数据库来构建一个实时的欺诈检测零碎。

古思为对以后图神经网络的倒退背景做了介绍,并解读了为何要通过该算法计划来打造一套零碎,以及可组织和查问、存储海量图谱业务的图数据库详情。随后,深刻解读了基于图的神经网络办法及 GNN 欺诈检测,同时从实际的角度对实时欺诈检测零碎【(Graph Neural Network, GNN)+ 图形数据库】NebulaGraph DGL 在端到端的理论利用及所用到的开源我的项目做了分享。期间,他重点展现了如何将训练胜利的 DGL 图神经网络模型嵌入到线上服务中的实例,并联合图数据库的实时能力,对整个欺诈检测零碎的搭建过程做了 Demo 演示。

古思为示意,NebulaGraph 我的项目自 2018 年创建之初,就从 day zero 面向超大规模,到千亿点规模、万亿边规模的演变下一直迭代,在领有上千用户的开源社区中打磨出齐备的周边生态。最后面向分布式,NebulaGraph 就有较好的扩展性、并发解决能力、响应工夫以及规模和性能,而踊跃拥抱开源也是该我的项目被大量用户抉择作为其图的基础设施或图中台的理由之一。古思为随后简要介绍了 DGL(Deep Graph Library)这个开源我的项目,DGL 最后由纽约大学和亚马逊云科技独特发动,作为最风行的图神经网络框架之一,它提供了十分优雅的底层框架无关的 GNN 接口和十分弱小的分布式训练能力,同时,它的社区也十分沉闷。最初,古思为也对线上网友提出的“有肯定的深度学习根底该如何入门”“图神经网络目前可钻研的方向及其将来倒退的趋势”相干问题解答。

之后,亚马逊云科技解决方案架构师林业、亚马逊云科技机器学习解决方案架构师李雪晴也别离从以后热点话题技术及实战的角度带来了主题为“Amazon SageMaker 玩转 AIGC”和“SageMaker 新性能深解读:机器学习模型治理实战”的分享。

据 Gartner 数据显示,预计到 2023 年会有 20% 的内容被生成式的 AI 所创立,到了 2025 年,咱们生产的 AI 生产的数据占比将达到 10%。林业在出题分享中,就次要聚焦了 AIGC 这个以后的热点技术话题,介绍了 AIGC 详情以及以后 AIGC 支流利用场景,并就“如何利用亚马逊云科技的平台来实现 AIGC 上的 Stable Diffusion 模型利用”进行了演示。

林业次要筛选了 Stable Diffusion 和 Bloom 这两个 AIGC 的模型进行了初步的解说,其中 Bloom 是亚马逊云科技往年 7 月份正式面世的开源我的项目,最终实现了 1760 亿个参数规模,可实用于多种场景。他也对 Amazon SageMaker Studio 一站式机器学习 IDE 开发平台及 Amazon SageMaker JumpStart、SageMaker JumpStart + Stable Diffusion、SageMaker JumpStart + Bloom 等开发工具及客户解决方案做了分享,并在线演示了利用 JumpStart 疾速创立 Stable Diffusion 利用,最初对来自线上网友的发问做了解答。

作为 AI 的外围,机器学习须要在在升高模型生效及躲避危险方面有一套残缺的标准。在本次线上沙龙的最初一个主题里,李雪晴先从两个方面为咱们介绍了亚马逊云科技的劣势,比方领有十分残缺全面的机器学习产品类型以及亚马逊自研的训练芯片 Amazon training、自研的推理芯片 Amazon ingredient。随后对 Amazon SageMaker 详情做了展现,重点对 Amazon SageMaker Notebook Instance 基于 JUPYTERLAB 开发环境的笔记本实例、实用于算法工程师的日常试验和代码调试、开源的 Deep Graph Library 赋能图神经网的多种业务场景等实战案例做了分享,同时为线上网友提出的问题做了具体解答。

————————————-——————

四位讲师的精彩分享,与宽广开发者的踊跃互动,让咱们在热烈的技术交换气氛中,完结了本场沙龙,为刚刚过来的 2022 年画上了一个圆满的句号。新的一年里,也将一直有更多精彩流动期待您的关注!

视频回放链接:https://ke.segmentfault.com/c…

正文完
 0