共计 2962 个字符,预计需要花费 8 分钟才能阅读完成。
摘要:回顾 2018,展望 2019,计算机科学技术继续前进!
1、简介:
过去几年一直是人工智能爱好者和机器学习专业人士最幸福的时光。因为这些技术已经发展成为主流,并且正在影响着数百万人的生活。各国现在都有专门的人工智能规划和预算,以确保在这场比赛中保持优势。
数据科学从业人员也是如此,这个领域正在发生很多事情,你必须要跑的足够的快才能跟上时代步伐。回顾历史,展望未来一直是我们寻找方向的最佳方法。
这也是我为什么想从数据科学从业者的角度退一步看一下人工智能的一些关键领域的发展,它们突破了什么?2018 年发生了什么?2019 年会发生什么?
我将在本文中介绍自然语言处理(NLP)、计算机视觉、工具库、强化学习、走向合乎正道的人工智能
2、自然语言处理(NLP)
让机器分析单词和句子似乎是一个梦想,就算我们人类有时候也很难掌握语言的细微差别,但 2018 年确实是 NLP 的分水岭。
我们看到了一个又一个显著的突破:ULMFiT、ELMO、OpenAI 的 Transformer 和 Google 的 BERT 等等。迁移学习(能够将预训练模型应用于数据的艺术)成功应用于 NLP 任务,为无限可能的应用打开了大门。让我们更详细地看一下这些关键技术的发展。
ULMFiT
ULMFiT 由 Sebastian Ruder 和 fast.ai 的 Jeremy Howard 设计,它是第一个在今年启动的 NLP 迁移学习框架。对于没有经验的人来说,它代表通用语言的微调模型。Jeremy 和 Sebastian 让 ULMFiT 真正配得上 Universal 这个词,该框架几乎可以应用于任何 NLP 任务!
想知道对于 ULMFiT 的最佳部分以及即将看到的后续框架吗?事实上你不需要从头开始训练模型!研究人员在这方面做了很多努力,以至于你可以学习并将其应用到自己的项目中。ULMFiT 可以应用六个文本分类任务中,而且结果要比现在最先进的方法要好。
你可以阅读 Prateek Joshi 关于如何开始使用 ULMFiT 以解决任何文本分类问题的优秀教程。
ELMO
猜一下 ELMo 代表着什么吗?它是语言模型嵌入的简称,是不是很有创意?ELMo 一发布就引起了 ML 社区的关注。
ELMo 使用语言模型来获取每个单词的嵌入,同时还考虑其中单词是否适合句子或段落的上下文。上下文是 NLP 的一个重要领域,大多数人以前对上下文都没有很好的处理方法。ELMo 使用双向 LSTM 来创建嵌入,如果你听不懂 - 请参考这篇文章,它可以让你很要的了解 LSTM 是什么以及它们是如何工作的。
与 ULMFiT 一样,ELMo 显着提高了各种 NLP 任务的性能,如情绪分析和问答,在这里了解更多相关信息。
BERT
不少专家声称 BERT 的发布标志着 NLP 的新时代。继 ULMFiT 和 ELMo 之后,BERT 凭借其性能真正击败了竞争对手。正如原论文所述,“BERT 在概念上更简单且更强大”。BERT 在 11 个 NLP 任务中获得了最先进的结果,在 SQuAD 基准测试中查看他们的结果:
有兴趣入门吗?你可以使用 PyTorch 实现或 Google 的 TensorFlow 代码尝试在自己的计算机上得出结果。
我很确定你想知道 BERT 代表什么,它实际上是 Transformers 的双向编码器表示,如果你能够领悟到这些,那很不错了。
PyText
Facebook 开源了深度学习 NLP 框架 PyText,它在不久之前发布,但我仍然要测试它,但就早期的评论来说非常有希望。根据 FB 发表的研究,PyText 使会话模型的准确性提高了 10%,并且缩短了训练时间。
PyText 实际上落后于 Facebook 其他一些产品,如 FB Messenger。如果你对此有兴趣。你可以通过 GitHub 下载代码来自行尝试。
2019 年 NLP 趋势:
塞巴斯蒂安·罗德讲述了 NLP 在 2019 年的发展方向,以下是他的想法:
预训练的语言模型嵌入将无处不在,不使用它们的模型将是罕见的。
我们将看到可以编码专门信息的预训练模型,这些信息是对语言模型嵌入的补充。
我们将看到有关多语言应用程序和跨语言模型的成果。特别是,在跨语言嵌入的基础上,我们将看到深度预训练的跨语言表示的出现。
3、计算机视觉
这是现在深度学习中最受欢迎的领域,我觉得我们已经完全获取了计算机视觉中容易实现的目标。无论是图像还是视频,我们都看到了大量的框架和库,这使得计算机视觉任务变得轻而易举。
我们今年在 Analytics Vidhya 花了很多时间研究这些概念的普通化。你可以在这里查看我们的计算机视觉特定文章,涵盖从视频和图像中的对象检测到预训练模型列表的相关文章,以开始你的深度学习之旅。
以下是我今年在 CV 中看到的最佳开发项目:
如果你对这个美妙的领域感到好奇,那么请继续使用我们的“使用深度学习的计算机视觉”课程开始你的旅程。
BigGAN 的发布
在 2014 年,Ian Goodfellow 设计了 GAN,这个概念产生了多种多样的应用程序。年复一年,我们看到原始概念为了适应实际用例正在慢慢调整,直到今年,仍然存在一个共识:机器生成的图像相当容易被发现。
但最近几个月,这个现象已经开始改变。或许随着 BigGAN 的创建,该现象或许可以彻底消失,以下是用此方法生成的图像:
除非你拿显微镜看,否则你将看不出来上面的图片有任何问题。毫无疑问 GAN 正在改变我们对数字图像(和视频)的感知方式。
Fast.ai 的模型 18 分钟内在 ImageNet 上被训练
这是一个非常酷的方向:大家普遍认为需要大量数据以及大量计算资源来执行适当的深度学习任务,包括在 ImageNet 数据集上从头开始训练模型。我理解这种看法,大多数人都认为在之前也是如此,但我想我们之前都可能理解错了。
Fast.ai 的模型在 18 分钟内达到了 93%的准确率,他们使用的硬件 48 个 NVIDIA V100 GPU,他们使用 fastai 和 PyTorch 库构建了算法。
所有的这些放在一起的总成本仅为 40 美元!杰里米在这里更详细地描述了他们的方法,包括技术。这是属于每个人的胜利!
NVIDIA 的 vid2vid 技术
在过去的 4 - 5 年里,图像处理已经实现了跨越式发展,但视频呢?事实证明,将方法从静态框架转换为动态框架比大多数人想象的要困难一些。你能拍摄视频序列并预测下一帧会发生什么吗?答案是不能!
NVIDIA 决定在今年之前开源他们的方法,他们的 vid2vid 方法的目标是从给定的输入视频学习映射函数,以产生输出视频,该视频以令人难以置信的精度预测输入视频的内容。
你可以在这里的 GitHub 上试用他们的 PyTorch 实现。
2019 年计算机视觉的趋势:
就像我之前提到的那样,在 2019 年可能看到是改进而不是发明。例如自动驾驶汽车、面部识别算法、虚拟现实算法优化等。就个人而言,我希望看到很多研究在实际场景中实施,像 CVPR 和 ICML 这样的会议描绘的这个领域的最新成果,但这些项目在现实中的使用有多接近?
视觉问答和视觉对话系统最终可能很快就会如他们期盼的那样首次亮相。虽然这些系统缺乏概括的能力,但希望我们很快就会看到一种综合的多模式方法。
自监督学习是今年最重要的创新,我可以打赌明年它将会用于更多的研究。这是一个非常酷的学习线:标签可以直接根据我们输入的数据确定,而不是浪费时间手动标记图像。
本文作者:【方向】阅读原文
本文为云栖社区原创内容,未经允许不得转载。