开发者社区技术周刊又和大家见面了,萌妹子主播为您带来最新一期“开发者技术联播”。让咱们一起听听,过来一周有哪些值得咱们开发者关注的重要新闻吧。
- 国家超算深圳核心打算2年内晋升计算能力至多1000倍
- T-Mobile扩充更快中频5G网络 覆盖范围简直翻一倍
- 苹果正研发iMac处理器A14T 采纳台积电5nm工艺制作
- MongoDB Atlas现反对多云数据库集群
- 维基媒体将代码库迁徙到 GitLab
- GPT-GNN:图神经网络的生成式预训练
- 图神经网络时代的深度聚类
技 术 要 闻
Industry News
1, 京东智联云4篇论文入选国内语音顶级大会Interspeech 2020
近日,国内语音顶级会议Interspeech 2020在线上举办。京东人工智能研究院有4篇论文怀才不遇,胜利入选本次大会。别离在声音事件定位与检测、语音去混响、语音验证零碎、神经网络声码器等畛域获得冲破。Interspeech 2020是由国内语音通信协会ISCA组织的语音钻研畛域的顶级会议之一,是寰球最大的综合性语音信号处理畛域的科技盛会。该会议每年举办一次,往年大会是第21届INTERSPEECH会议,也是第二次在中国举办。本届会议以“Cognitive Intelligence for Speech Processing”为主题,内容涵盖信号处理、语音辨认、自然语言解决、神经机器翻译等畛域。
2,国家超算深圳核心打算2年内晋升计算能力至多1000倍
从国家超级计算深圳核心获悉,以后高技术畛域角逐的焦点之一的E级计算机行将落户深圳,打算至 2022 年,该核心计算能力将至多晋升 1000 倍,为湾区基础科学钻研、云计算、大数据和人工智能提供反对。目前,超算核心二期建设正在推动,包含E级机研制、新园区建设、利用生态建设三大部分。
3,T-Mobile扩充更快中频5G网络 覆盖范围简直翻一倍
据国外媒体报道,美国电信运营商T-Mobile发表了拓展其2.5GHz中频段5G网络,该网络目前在数十个新城市中可用,相比去年9月底一次次要中频段,覆盖范围减少靠近一倍。T-Mobile示意,它当初曾经在美国近410个城市和乡镇取得了5G中频反对。T-Mobile的5G网络将其宽泛应用的600mhz 低频网络(覆盖范围覆盖全国范畴,但在速度晋升方面不迭 LTE)与更快的2.5 GHz网络以及超快的mmWave网络(速度最快,但覆盖范围最差)联合在一起。T-Mobile打算持续踊跃的中频段5G扩大,指标是到2020年底笼罩1亿人。
4,苹果正研发iMac处理器A14T 采纳台积电5nm工艺制作
在6月22日揭幕的寰球开发者大会(WWDC)上,苹果公司颁布了基于ARM架构的自研Mac处理器打算,并发表首款基于自研处理器的Mac,打算今年年底开始出货,在将来的两年实现过渡,届时Mac产品线就将全副采纳苹果自研处理器。而从外媒最新的报道来看,除了自研用于Mac笔记本电脑的处理器,苹果还在研发用于桌面电脑iMac的处理器,明年年初推出的iMac预计就会采纳。苹果正在研发的桌面电脑处理器是A14T,预计在2021年推出。此外,苹果自研的GPU,也将在2021年推出,这也就意味着苹果明年新推出的iMac,无望同时搭载苹果自研的中央处理器和图形处理器。
5,MongoDB Atlas现反对多云数据库集群
新的MongoDB Atlas多星散群性能已于上周二全面推出,并扩大了该公司现有的云数据库产品。这个新的多星散群反对不只是在不同的云提供商上运行托管的MongoDB数据库,在此次更新中,MongoDB还容许用户同时在多个云提供商之间运行数据库,这在此前很难实现。451 Research高级钻研分析师James Curtis对此示意:“对于很多企业来说,作为一种风行的数据库抉择,MongoDB通过Atlas反对多云很有意义,他们的客户须要这种反对,即便他们当初没有提出要求,未来也会提出这个要求。”然而,Curtis指出,多云对不同企业可能有不同的含意。他认为,现实情况是,多云可能最好地满足指标工作负载,例如高可用性、备份和业余剖析,这也是MongoDB在此Atlas更新中的重点。
6,维基媒体决定将代码库迁徙到 GitLab
维基媒体基金会决定将其代码库从 Gerrit 迁徙到自托管的 GitLab 社区版。维基媒体称,过来两年的开发者满意度考察显示对代码审查零碎 Gerrit 的不满有点高,志愿者社区对其不满尤其高。越来越多的集体和团队放弃应用 Gerrit 改用第三方托管选项 GitHub。这些证据显示 Gerrit 没有促成开发而是放缓了开发,如果不能解决 Gerrit 上的可用性问题,开发者将会抉择在他们偏爱的平台上构建我的项目。维基媒体公布工程团队在考察和评估之后抉择迁徙到 GitLab,GitLab 容许自托管,提供了 MIT 受权的社区版,合乎基金会的自在和开源准则。
学 术 前 沿
Academic News
1,GPT-GNN:图神经网络的生成式预训练
机器学习的胜利很大水平上取决于数据。但高质量的标记数据通常很低廉且难以获得,尤其是对于心愿训练参数较多的模型。而绝对的咱们却能够很容易地获取大量的无标记数据,其数量能够是标记数据的数千倍。例如,在社交网络上进行异样检测时,歹意帐户的标注须要依赖于专家常识,数量较小,而整个网络的规模却能够达到十亿规模。
为了解决标注数据较少,尽可能利用其无标注数据,一个惯例的做法是自监督的预训练(self-supervised pre-training)。其指标是设计正当的自监督工作,从而使模型能从无标注数据里学得数据的信息,作为初始化迁徙到上游工作中。因为指标工作中很多的常识曾经在预训练中学到,因而通过预训练,咱们只须要十分大量的标注数据,就能失去较好的泛化性能。
论文链接:https://arxiv.org/abs/2006.15437
2,图神经网络时代的深度聚类
聚类是机器学习/数据挖掘的一个基础性问题。从传统聚类到深度聚类以及当初图神经网络赋能的聚类, 各种各样的聚类算层出不穷,也在很多畛域失去了宽泛的利用。思考到图神经网络对构造信息的捕捉能力,在波及到群体构造的聚类工作上,本篇文章所介绍的聚类算法应该会获得更大的晋升。
论文链接:https://arxiv.org/abs/1906.06532
以上信息来源于网络,由“京东智联云开发者”公众号编辑整理,不代表京东智联云立场
欢送点击【京东智联云】,理解开发者社区
更多精彩技术实际与独家干货解析
欢送关注【京东智联云开发者】公众号