共计 864 个字符,预计需要花费 3 分钟才能阅读完成。
深度学习给学术界和业界带来了弱小的技术革新,其中,如何进步深度学习的效率和性能,是学术界和业界广泛关怀的问题。如何减速神经网络训练?如何更疾速的实现深度学习的部署?本次分享,将带来学术界和业界的最新进展!
本次分享邀请了 曾刷新 IMAGENET 记录的新加坡国立大学传授尤洋,为咱们带来减速神经网络训练的最新钻研。其发表论文《Imagenet training in minutes》所提出的办法刷新了 ImageNet 训练速度的世界纪录。
他是 LAMB 优化器的提出者,曾胜利将预训练一遍 BERT 的工夫,从本来的三天三夜一举缩短到一个多小时。从 UC 伯克利作为优良博士毕业后,退出新加坡国立大学负责校长青年传授,持续深耕高性能计算畛域。2021 年,他还被选入福布斯 30 岁以下精英榜(亚洲)。
他将为咱们疾速大规模神经网络训练在学术界的最新研究进展,从高性能计算、并行算法角度进行切入,介绍大规模深度学习训练算法的分布式优化,以及在 AAAI 发表的最新研究进展!
本次分享还将邀请一线大厂的演讲嘉宾,分享深度学习在业界的最佳实际!本次分享将次要包含 AI/ML 工程化在云端的有机联合,基于 PyTorch+ 深度学习云平台实现大规模的算力晋升,基于海量的数据实现疾速的模型训练和部署,实现最高效稳固地实现从搭建框架、训练模型,到部署模型的整个生命周期。
本次分享还将带来亚马逊云科技的最新深度学习前沿利用!一站式的 PyTorch 的深度学习云平台,高性能的人工智能算法集,以及最新的利用停顿。或乏味或科技,业界的前沿利用停顿,等你来撩!
这是一场学术和业界的盛宴,快来报名加入吧!
工夫地点
2021 年 12 月 26 日
北京海淀区西直门南大街甲 56 号创伴空间
礼品专区
线下的流动,除了干货满满的分享内容,必定少不了精彩的茶歇和诚意满满的周边礼品!咱们心愿大家的相聚不仅仅是深度的技术交换,更能结交更多气味相投的敌人,一起碰撞出更加精彩的火花。
除此之外,现场加入互动抽奖,还有机会取得 User Group 连帽衫一件
还在等什么,快快扫描下方二维码退出咱们吧~
撰写人:欣欣
技术内容:培艺