关于腾讯:2023-Meet-TVM-深圳站报名开启

2次阅读

共计 2894 个字符,预计需要花费 8 分钟才能阅读完成。

往年 3 月和 6 月,2023 Meet TVM 系列流动别离在上海和北京胜利举办,300 余位来自各大厂商、科研院所的搭档们齐聚一堂,线上线下进了充沛的交换和探讨。

浏览往期文章:
北京站:流动回顾 | 汇聚行业技术大咖,共享思维碰撞时刻,2023 Meet TVM · 北京站圆满闭幕
上海站:流动回顾 | 2023 Meet TVM 首聚上海,百余位工程师共话机器学习编译的当初和将来

9 月中旬,TVM Meetup 第 3 站线下团聚定档深圳,这次咱们邀请到了 5 位资深 AI 编译器专家,他们将在深圳腾讯大楼,为在场的敌人们带来精彩分享。

本次流动由 MLC.AI 及 HyperAI 超神经主办,同时失去了 OpenBayes 贝式计算和腾讯 AI Lab 的倾情资助,现场也为大家筹备了精美的周边礼品和茶歇,欢送大家来玩!

2023 Meet TVM 深圳站流动信息

工夫:9 月 16 日(周六)13:30-17:30

地点:深圳市南山区深南小道 10000 号腾讯大厦 2F 多功能厅

人数:200(现场座位无限,请尽早报名)

报名:扫描下方二维码报名

舒适提醒:进入腾讯大厦须提供访客信息,请务必精确填写个人信息,免得影响入场,感激大家的单干。

扫码备注「TVM 深圳」退出流动群:

日程:

分享嘉宾及内容简介

工夫:13:40-14:20

Speaker:朱文熙(腾讯 AI Lab,开悟平台工程经理)

分享主题:基于 TVM 的动静形态编译优化

内容简介:传统的深度学习编译器(包含 TVM)短少动静形态反对,在解决大语言模型(动静序列长度)和检测模型(动静宽 / 高)等状况时比拟乏力。基于此现状,咱们设计实现了一套基于 TVM 的 CPU 端动静形状算子优化计划,性能超过现有的动态形态计划,且简直不须要搜寻工夫。

观看本场分享,你将理解:

  1. 动静形态优化带来的挑战
  2. TVM 社区的 dlight 相干工作
  3. CPU 端动静形态优化的难点和解法

工夫:14:20-15:00

Speaker:解磊(MachineTime,创始人)

分享主题:Design an AI Processor: Compiler is Dominant

内容简介:随着以大语言模型为代表的 AIGC 的倒退和遍及,算力需要呈指数式增长。因而,AI 处理器芯片的设计以及相应的编程变得更加简单。

如何让两者变得更加简略高效,自动化的编译器 — 计算架构联结设计了一个潜在的解决方案。

观看本场分享,你将理解:

  1. AI 处理器的产品格局
  2. 自动化 AI 处理器设计的钻研近况
  3. AI 处理器自动化设计的根底编译框架

工夫:15:00-15:40

Speaker:苏刚(燧原科技,资深主任工程师)

分享主题:MLIR 及其 AI 图编译实际

内容简介:随着 AI 芯片和 AI 框架的蓬勃发展,AI 编译器也随之倒退起来,如 XLA, TVM 等。MLIR 作为通用和可复用的编译器框架,因为可能帮忙各硬件厂商疾速构建 DS AI 编译器,目前在 AI 编译系统中失去了宽泛的利用。

本次分享次要介绍 MLIR 的一些基本知识因素、MLIR 的 Codegen 流程以及构建 AI 编译器的实际步骤,另外也将和大家讨论一下 MLIR 解决 AI 编译器关键问题的思路。

观看本场分享,你将理解:

  1. AI 编译器的构建元素
  2. MLIR 的基本知识和用处
  3. MLIR 构建 AI 编译器的根本步骤

工夫:16:00-16:40

Speaker:张峰(腾讯、高级工程师)

分享主题:基于 MLIR 的 AI 编译器的设计与实现

内容简介:AI 和机器学习畛域有许多不同的软件框架(如 TensorFlow、PyTorch 等),硬件设施也日益多样化(CPU、GPU、TPU 等),AI 编译器作为连贯二者的桥梁,存在着诸多挑战。

MLIR 作为一套编译器基础设施,它提供一系列可复用的易扩大的根底组件,用来搭建畛域专用编译器。腾讯在 MLIR 的根底上搭建了一套端到端的 AI 编译器,为用户的 AI 模型提供编译优化,从而简化模型在多种 AI 芯片上的部署,施展极致性能。

观看本场分享,你将理解:

  1. 腾讯 AI 编译器的整体流程
  2. MLIR 的一些基础设施介绍及其提供的便利性
  3. Linalg dialect 为根底的 tiling 和 fusion 介绍

工夫:16:40-17:20

Speaker:冯思远(Apache TVM PMC,上海交通大学博士生)

分享主题:大模型时代机器学习零碎的时机与挑战

内容简介:生成式人工智能和大型语言模型 (LLM) 畛域获得了重大进展,它们具备卓越的能力和从根本上扭转许多畛域的后劲。与此同时,他对于机器学习零碎带来了全新的时机和挑战。一方面,微小的算力需要导致对于系统优化的需要晋升;另一方面,繁多的模型构造和高性能硬件需要,使得本来凋谢的机器学习生态开始收敛。

观看本场分享,你将理解:

  1. 大模型时代的机器学习零碎现状
  2. MLC-LLM 最近的停顿与更新
  3. 后大模型时代的机器学习零碎瞻望

主办方及合作伙伴简介

作为本次流动的主办方,MLC.AI 社区成立于 2022 年 6 月,并由 Apache TVM 次要发明者、机器学习畛域驰名的青年学者陈天奇,率领团队上线了 MLC 线上课程,零碎介绍了机器学习编译的要害元素以及外围概念。

2022 年 11 月,在 MLC.AI 社区志愿者的共同努力下,首个残缺的 TVM 中文文档上线,并胜利托管至 HyperAI 超神经官网,进一步为对机器学习编译感兴趣的国内开发者,提供了接触并学习一门新技术的根底设置——文档。

2023 年第四季度,「2023 Meet TVM」系列流动将在杭州举办,届时欢送企业及社区搭档参加共创。

MLC 线上课程:https://mlc.ai/
TVM 中文文档:https://tvm.hyper.ai/

国内当先的人工智能及高性能计算社区,致力于为宽广国内开发者提供数据迷信畛域的优质公共资源,截至目前已为 1200+ 公开数据集提供国内下载节点,反对 300+ 人工智能及高性能计算相干的词条查问,托管了残缺的 TVM 中文文档,并行将上线多个根底及风行教程。

拜访官网:https://hyper.ai/

OpenBayes 贝式计算是国内当先的高性能计算服务提供商,通过为新一代异构芯片嫁接经典软件生态及机器学习模型,进而为工业企业及高校科研提供更加疾速、易用的数据科学计算产品,其产品已被数十家大型工业场景或头部科研院所所采纳。

拜访官网:https://openbayes.com/

腾讯 AI Lab 是腾讯的企业级 AI 实验室,于 2016 年 4 月在深圳成立,目前有 100 多位顶尖钻研科学家及 300 多位利用工程师。借助腾讯丰盛利用场景、大数据、计算力及一流人才方面的长期积攒,AI Lab 立足将来,凋谢单干,致力于一直晋升 AI 的认知、决策与创造力,向“Make AI Everywhere”的愿景迈步。

腾讯 AI Lab 强调钻研与利用并重倒退。根底钻研关注机器学习、计算机视觉、语音技术及自然语言解决等四大方向;技术利用聚焦在游戏、数字人、内容、社交四大畛域,并初探 AI 在工业、农业、医疗、医药、生命科学等畛域的钻研利用。

流动行:扫码跳转至流动行报名

扫码备注「TVM 深圳」退出流动群

思考到本场流动的场地空间状况,咱们仅凋谢了 200 个到场名额,倡议大家尽早报名锁定席位。

2023 Meet TVM 系列流动现已开启,9 月 16 日 13:30-17:30,期待与大家在深圳相聚!

正文完
 0