关于人工智能:GPT4创造者第二次改变AI浪潮的方向

26次阅读

共计 10093 个字符,预计需要花费 26 分钟才能阅读完成。

OneFlow 编译
翻译|贾川、杨婷、徐佳渝
编辑|王金许

一朝成名天下知。ChatGPT/GPT- 4 相干的新闻接踵而至刷屏朋友圈,现在,这些模型背地的公司 OpenAI 的知名度不亚于任何科技巨头。

不过,就在 ChatGPT 问世前,OpenAI 在 GPT- 3 公布后的两年多工夫里陷入寂静,甚至开始被人唱衰。实际上,OpenAI 在这期间正在潜心打磨 GPT-3.5。

在 OneFlow 去年 3 月公布的《深度学习崛起十年:“开挂”的 OpenAI 革新者》一文中,OpenAI 联结创始人、首席科学家就介绍了那些当初业内人尽皆知的人类反馈的强化学习(RLHF)、AI 对齐以及多模态等要害名词和基本思路。

只不过,那时业内仿佛都在忙着比拼更大的模型参数,无暇顾及抑或并不在意 OpenAI 正在钻研的工作,看过这个对话的人很少。

当然,即便看了他们的技术思路,置信他们能走通的人就更少了,能去真正实际的也只有他们本人。直到 ChatGPT 大获胜利,同行也只好艳羡嫉妒拍本人大腿,并说上一句:不就是已有技术的组合。而后眼睁睁看着 OpenAI 一脚油门,甩出同行几条街。

作为 GPT 系列模型背地“组装者”和推动者,毫不夸大地说,没有 Ilya Sutskever,就没有当初的 ChatGPT 以及 GPT-4。他正在扭转世界。

更惊人的是,十年前,他曾经扭转过一次世界。那个引发深度学习新一轮反动浪潮的 AlexNet 也与 Ilya 无关,他是 AlexNet 的作者之一,后续随之而来的 AlphaGo、GPT、CLIP、DALL- E 和 Codex 都离不开他的奉献。

那么,从推动这一系列改革的科学家角度,他到底如何对待当先 ChatGPT、GPT- 4 模型的倒退?他对 AI 的思考和坚定信念从何而来?OpenAI 下一步钻研方向是什么?他又如何对待 AI 对社会的影响?

在近期与英伟达 CEO 黄仁勋(GTC 大会)以及 Eye on AI 播客的主持人 Craig S. Smith 的两场对话中,Ilya 对此进行了解答。

对话中的 Ilya 像是 AI 研究者中的苦行僧。不同于 Sam Altman 和 Greg Brockman 两位创始人在交谈中体现出的异样麻利的表达能力,Ilya 的语速绝对平缓很多,但他的思考要比说进口的内容更深远。当你问他是否解决 GPT 模型不苟言笑地胡言乱语的问题时,他说,“让咱们刮目相待”,这个答复让你感觉不寒而栗的同时还会置信这家伙真的能做到。

就在业内其余团队正在钻研怎么研发类 ChatGPT 追赶甚至“弯道超车”OpenAI 时,GPT- 5 或者曾经在路上了。在这之前,最好看看 Ilya 怎么思考 AI 及其将来倒退方向,或者会启发咱们提出更好的、不一样的倒退门路。

OneFlow 以 QA 模式对上述两场对话进行了编译整顿,对于问题以下不作具体辨别。(Craig 的播客经受权后由 OneFlow 编译,内容转载请分割 OneFlow 取得受权。播客:https://www.eye-on.ai/)

1

AI 界的“iPhone 时刻”

Q:ChatGPT 就是 AI 界的“iPhone 时刻”,你是如何实现这一历史性转变的?

A:最开始,咱们也不分明该如何发展整个我的项目,而且这个畛域与当初的倒退走向也齐全不同。2016 年左右开始开办 OpenAI 时,这一畛域的研究者还很少,咱们过后的共事大多来自 Google/DeepMind,他们有从业教训,但思路相对而言比拟狭隘,有所解放。

那时咱们有两个大的根底想法,它们的影响始终连续到明天。第一个想法是通过压缩进行无监督学习。当初看来这是理所应当,但在 2016 年,无监督学习是一个还没有被解决的问题,也没有任何科学家有相干想法。

Yann LeCun 过后到处说这是一个技术上的瓶颈。压缩也不是人们常常谈判到的问题,但 ChatGPT 实际上的确压缩了训练数据,咱们通过一直训练自回归生成模型实现了数据压缩。如果数据被压缩得足够好,就必须要提取其中存在的所有暗藏信息,这就是关键所在。

这也间接导致了咱们钻研情绪神经元。OpenAI 科学家 Alec Radford 训练 LSTM 来预测亚马逊评论的下一个字符时发现,如果你预测下一个字符足够好,LSTM 就会有一个与情绪对应的神经元。这就很好地展现了无监督学习的成果,也验证了下一个字符预测的想法。这个发现对咱们的影响很大。

但哪里能失去无监督学习的数据呢?无监督学习的难点不在于数据,更多对于为什么要这么做,以及意识到训练神经网络来预测下一个字符是值得谋求和摸索的。

而后 Transformer 进去后,咱们立刻发现这个模型就是咱们想要的,于是做出了 GPT-1。

第二个想法就是强化学习。我有一个很强的信念是“越大越好”,OpenAI 的指标是找到扩大的正确门路。咱们实现的第一个真正的大型项目是实时策略游戏 DOTA 2。过后咱们训练了一个强化学习的 Agent 来与本人反抗,指标是达到人类玩家的程度。

从 DOTA 的强化学习转变为人类反馈的强化学习,再加上 GPT 技术基座,成就了明天的 ChatGPT。

Q:有人认为,ChatGPT 只是一个大型语言模型,但在我看来,那背地有本人的简单零碎。是否介绍一下你们是如何通过强化学习进行精调的?ChatGPT 背地是否有多种零碎进行撑持?

A:当咱们训练大型神经网络以精确预测互联网上大量不同文本的下一个词时,咱们在做的其实是在学习一个世界模型。从外表看,神经网络只是在学习文本中的统计相关性,但实际上,学习统计相关性就能把常识压缩得很好,神经网络所学习的是,它在生成文本过程中的一些表述,文本只是这个世界的一个映射,所以神经网络学习的是这个世界的多个方面的常识。

这就是它在精确预测下一个词的工作中所学习到的,对下一个词的预测越准,还原度越高,你看到的文本的准确度就越高。这就是 ChatGPT 模型在预训练阶段所做的,它尽可能多地从世界的映射(也就是文本)中学习对于世界的常识。

但这不能阐明神经网络会体现出人类心愿它做出的行为,这就须要第二阶段的微调、人类反馈的强化学习以及其余模式的 AI 零碎的帮助,这个阶段做得更好,神经网络越就越有用、牢靠。

Q:多模态为 GPT- 4 带来的最大冲破是什么?

A:多模态十分有意思。第一,多模态在视觉辨认上特地有用。因为整个世界是视觉化的,人类和其余动物也是视觉动物,人脑 1 / 3 的灰质都是用于视觉的,如果没有视觉,神经网络的用途不会达到它应有的水平,GPT- 4 可能很好地去了解这些图像。

第二,除了从文本中学习外,咱们还能从图像中学习对于这个世界的常识,只管这看起来还不太明确。一个人可能毕生之中会听到 10 亿个词,对咱们来说,有尽可能多的信息起源很重要。

同样,这也实用于神经网络。即便是视觉信息,也会通过文本迟缓流传,如果再加上视觉信息,模型就能学到文本中本来没有的信息。

Q:相比 ChatGPT,GPT- 4 在哪些方面有所改进?

A:ChatGPT 版本有时会谬误地了解问题,给出的答复有的很不现实,但 GPT- 4 好多了,还能会以更快的形式去解决难题,简而言之,就是可靠性更高了。

GPT- 4 是在 ChatGPT 的根底上进行改良的。GPT- 4 的训练大概始于 6 - 8 个月前,它的预测能力更加精确,这得益于其更好的神经网络,使其可能更加精准地预测下一个单词,并深刻了解文本。

GPT- 4 为什么能更精准地预测下一个单词,为什么这会带来更深的理解能力?就像你读侦探小说时,情节、事件以及其余线索都不分明,使你无奈精确预测故事终局。但当你浏览小说的最初一页时,就能够很容易揣测出凶手是谁,这是因为你在浏览过程中积攒了大量的常识和教训。同样地,GPT- 4 的更大训练数据和神经网络能够帮忙它更好地了解文本,从而更精确地预测下一个单词。

Q:从 ChatGPT 到 GPT-4,有哪些能力让你感觉很惊艳?

A:一方面是模型的可靠性,另一方面,最让我感觉惊艳的就是,这些模型真的无效。我在 AI 畛域差不多有二十多年了,神经网络从最开始毫不起眼的工作缓缓演进,通过更大的数据集训练之后,变得越来越强,只管根底算法不同,但训练形式是相似的。我常常会感叹于人工神经元的想法竟然真的无效。

2

“智能”背地的工作原理

Q:你是何时对计算机科学感兴趣的?这种趣味来自最后的一时冲动?还是由脑科学、神经科学等趣味引发的?

A:我出生于俄罗斯,在以色列长大,十多岁时随父母移民到了加拿大。依据父母的说法,我从小就体现出了对 AI 的趣味。我始终想搞清楚意识(consciousness)这个货色,对所有可能帮我理解意识的货色感兴趣。在这方面,AI 仿佛是个很好的切入点。

17 岁时,我就开始跟着 Geoffrey Hinton 在多伦多大学做钻研了。过后,深度学习是人工智能畛域最重要、最难接触的局部,我始终想做这方面的钻研。

当初,咱们天经地义地认为计算机是能够学习的,但在 2003 年,状况恰恰相反,AI 畛域的最大成就是国际象棋引擎深蓝(Deep Blue)。过后 AI 的倒退水平还比拟低级,就拿国际象棋来说,AI 只是通过简略的办法寻找棋子的最佳走位。

这种办法难以用于实战,因为过后人们还没有搞清楚该怎么让 AI 学习,但我对此很感兴趣,侥幸的是,Geoff 是多伦多大学的传授,我有机会在学校见他,见面后一拍即合,我很快退出了他的团队。

Q:你只是单纯地对机器学习感兴趣,还是与 Geoff 一样,心愿借助机器学习来理解大脑的神秘?

A:AI 涵盖的畛域十分宽泛,人们入行 AI 畛域的动机也各有不同,而我想要弄清楚“智能”背地的工作原理。

当初,对这个问题咱们曾经有了一些答案。“智能”的背地是一张大型神经网络,咱们对神经网络的工作原理也有了肯定水平的理解。但在过后,尽管神经网络曾经存在,却没人晓得它的用途。

所以“智能”到底是如何运作的?到底该怎么做能力让计算机变得略微智能一点?

那时的我有一个十分明确的想法:在 AI 畛域作出实在、无效的奉献。过后 AI 届看似人多,奉献也层出不穷,但却没有获得任何实质性的成就,就像一片荒凉之地,看不到心愿。这些就是我最后从事 AI 的能源。

Q:Geoff 曾说,卷积神经网络(CNN)的冲破促使你加入了 ImageNet 比赛,而 Alex 用他高超的编程技能训练了神经网络。

A:简而言之,过后我意识到,如果在一个足够大的数据集上训练大型深度神经网络,让这个神经网络去解决简单工作(比方视觉等),只有保持训练上来,就能胜利。

这背地的逻辑是:人脑是领有神经元的神经网络,能够疾速解决视觉等简单工作,能够得出,其它某些神经网络也能够很好地做到这一点。因而,咱们须要一个较小但相干的神经网络,并用数据对其进行训练。计算机外部最好的神经网络将与执行这项工作的神经网络进行关联。过后的一种说法是,大型深度神经网络能够实现这一工作。

另外,咱们要有训练工具(Geoff 的实验室实现了这部分的技术工作),将这两点相结合(一是神经网络要足够大,确保训练时失常运行;二是指定解决方案的数据),咱们就能够训练神经网络,ImageNet 比赛刚好满足了咱们的需要。Alex 有疾速卷积核,ImageNet 领有足够大的数据,而咱们抓住了这个机会,做了一些前所未有的尝试,并获得了胜利。

Q:Geoff 曾提出一个十分乏味的观点:与人脑相比,具备大量参数的大型模型,尤其是大型语言模型,能够用绝对较少的参数解决大量数据。相比之下,人类大脑无数以万亿计的参数,但解决的数据量绝对较小。你是否思考过这个问题?

A:特地是在模型训练的晚期阶段,现有神经网络技术构造的确须要大量数据。然而,在模型训练的前期阶段,对数据的需要会逐步缩小,这也是模型可能疾速学习的起因。尽管模型的学习速度不迭人类,但曾经相当迅速了。

从某个角度来看,咱们并不一定关怀是否须要大量数据能力实现目标。但从更广泛角度,从较少的数据中学到更多常识是可能的,只管这须要一些富裕创意的想法。

从大量的数据中学习更多常识将会开启其余可能性,使咱们可能向 AI 传授其不足的技能,并且更易传递咱们的冀望和偏好,以更准确地管制其行为。尽管经过训练后的语言模型能够疾速学习常识,但还有更多的机会能够利用。

3

扩大的对象更重要

Q:2017 年,《Attention Is All You Need》一文提出了自留神机制和 Transformer 模型。那么 GPT 我的项目的研发是如何开始的?

A:在 OpenAI 晚期,咱们的工作重心是“预测下一件事就是你所需的所有(predicting the next thing is all you need)”。过后,咱们想利用无限的神经网络去预测下一个单词、像素,在咱们看来预测就是压缩(compression)。咱们想晓得预测下一个单词能倒退到什么水平,想晓得预测是否解决无监督学习。在 GPT 之前,无监督学习就是机器学习的最高指标,是大家心目中的圣杯。

尽管当初人们曾经彻底把握了无监督学习,它已不再是人们关注的焦点,但它已经的确是机器学习的最高指标,是一大难点。过后,我对这方面的钻研十分感兴趣,因为 足够好的预测能够帮忙咱们进行无监督学习,现实状态是实现全副数据集的无监督学习。

过后,咱们应用的是递归神经网络(RNN),但它无奈胜任上述工作。《Attention Is All You Need》论文发表当前,咱们很快意识到 Transformer 能够解决以后神经网络学习的长程依赖(long-term dependencies)的局限问题。

这其实是技术问题,但咱们立即切换到 Transformer。就这样,初期 GPT 开始萌芽、倒退起来,有了 Transformer,GPT 运行越来越顺利,变得越来越大,随后咱们意识到,能够让它始终不断扩大,就这样最终倒退到了 GPT-3,并走到了当初这个阶段。

Q:Richard Sutton(强化学习先驱)始终强调“扩大(scale)是咱们所须要的所有”,而不须要新的算法。这一观点是否对你有影响或者是你们想到一块儿去了?

A:他的想法并没有影响到我。只管 Rich 的《惨痛教训(The Bitter Lesson)》一文十分有说服力,咱们也很乐意看到其他人的相似想法,但我认为,这篇文章的观点其实有点言过其实,或者至多人们从中得出的观点“不论做什么,扩大就对了”是夸大的说法。这种说法是不正确的。

咱们须要扩大一些能够从中受害的特定事物。深度学习让咱们首次实现了对扩大的无效利用,并从中取得了回报,这是深度学习的一大冲破。在此之前,大型计算机集群的作用是什么?可能仅限于天气模仿、物理模仿、电影制作等等,除此之外没有任何实在的需要。

事实上,深度神经网络越大、训练数据越多,运行的成果就越好,这是第一个乏味的扩大案例。未来咱们须要扩大的事物可能会呈现变动,这种变动兴许更有利于扩大,但当初咱们还不晓得变动的规模,在搞清楚它的规模之后,你可能又会诧异于它的变动之渺小。

总之,扩大的对象非常重要。当初,咱们只是找到了一个可能取得回报的扩大对象。

Q:听你说过,须要更快的处理器能力进一步扩大模型。模型扩大(scaling of models)仿佛是无止境的,但训练这些模型所需的计算能力曾经靠近极限,或者至多达到了社会公认的极限。

A:我记不太清你提及的具体评论,但在处理器方面,越快越好的逻辑显而易见,咱们的确须要更快、更多的处理器。不过,随着计算能力的需要一直进步,对计算资源的投入老本也在持续上升。

问题的要害不在于老本是否昂扬,而在于咱们是否通过投入老本失去超过其自身的价值。如果你投入了微小的老本但没有取得任何价值,那么这样的代价必定不值得。然而,如果你取得了十分有用、极具价值的货色,可能解决许多问题,那付出的老本就是值得的。

4

大型语言模型的局限性

Q:目前,大型语言模型的局限性在于,它们所领有的常识只限于它们所训练过的语种,而大多数人类常识都是非语言性的。它们的指标是满足 prompt 的统计一致性(statistical consistency),而对语言所波及的事实没有根本的了解。

A:其实,很难确定什么是语言模型的局限性。比方,两年前人们曾对过后的局限性高谈阔论,但当初的局限性跟过后相比又齐全不同。因而相比于议论局限性,将注意力放在当下的倒退更为重要,毕竟谁又能保障目前的局限性还会在两年后仍制约着语言模型的倒退呢?至多我没这个自信。

另一方面,有人认为模型只是在学习统计法则,因而它们不晓得世界的实质到底是什么。但我认为,学习统计法则比咱们眼睛看到的更重要。之所以当初才有这个观点,是因为咱们还没有(至多大多数人没有)真正在神经网络上破费很多工夫,而神经网络在肯定水平上是统计学。

什么是统计模型?其实只是拟合一些参数,比方实在产生的事件。预测也是一种统计景象,不过须要理解产生数据的真正底层过程能力更多地对数据进行压缩,进而实现预测。在这个过程中,你须要更多地理解这个产生数据的世界。

随着生成模型变得越来越好,了解水平也会越来越高,它们对整个世界的理解会让咱们为之震惊。而其中诸多精妙之处,却不止存在于现世,那是一个透过文本镜头能力看到的世界。

它们理解到的世界是文字镜头映射进去的世界:学习互联网上人类生成的各类文本。但这些文本其实也表白了整个世界。

一个很有意义和启发性的例子是,Sydney 是由 ChatGPT 反对的 Bing 衍生出的一种模式,当用户对 Sydney 说,Google 是比 Bing 更好的搜索引擎时,Sydney 就会变得好斗、平易近人。

那么,咱们该如何对待这种景象?这又意味着什么?有人会说,它只是在预测人类在这种状况下会怎么做。没错,人类的确会这么做,但这兴许意味着用心理学语言开始了解神经网络的行为。

Q:事实上,神经网络有时会产生“幻觉”,而语言模型在学习世界、思维、概念等方面的体现要好得多,但输入方面却不尽人意,当我向 ChatGPT 询问对于我的个人信息时,它辨认出我是一名记者,但它却给我冠上了很多没有取得过的荣誉。在你们将来的钻研中,是否有措施来解决这个问题?

A:对于这一过程须要了解的是:在预训练阶段,咱们只是训练语言模型,心愿学习对于这个世界的所有;在人类反馈的强化学习(RLHF)阶段,咱们关注的是输入后果。如果输入不适合或者不合理时,就会进行这样的输入。模型很快就能学会生成失当的输入。

当初的问题在于输入程度,其实预训练阶段的状况并非如此。神经网络的确有假造答复的偏向,即便是 ChatGPT 也会时不时的胡乱假造,这极大地限度了模型的实用性。我心愿能通过改良强化学习反馈步骤来阻止神经网络产生“幻觉”。

此时你可能会问,它们真的会学习吗?我的答案是:让咱们刮目相待。

Q:如果我通知 ChatGPT,它的答复有误,那么这是在对其进行训练,还是外部会给它一些惩办或者处分,以便下次答复得更加精确。

A:咱们当初的做法是雇佣人工训练员来教神经网络(比方 ChatGPT)如何体现。到目前为止,他们指定所需行为的形式略有不同。但事实上,你所形容的就是正确的训练形式:只需与它互动,它会从你的反馈中推断本人的答复是否让你称心。

因而,输入后果不好,ChatGPT 下次就应该做些不同的事件。尽管“幻觉”是一个很大的问题,但这种办法齐全能够解决这些问题。

Q:Yann LeCun(图灵奖得主,CNN 网络发明者)认为,大型语言模型所缺失的是一种非语言的根底世界模型(underlying world model),语言模型的构建能够对其进行参考。我想听听你对此的认识,以及你是否在这方面有所摸索。

A:我看过他的提议,其中有许多想法,并且与以后技术范式可能存在一些轻微差别,但在我看来,这些差别并不是十分显著。

首先,对于一个零碎来说,领有多模态的了解是可取的,这样能够使其从多方位(不仅仅从文本)来理解世界、理解人类以及与之相干的状况,如此一来,零碎也能更好地了解它应该解决的工作,满足人类的需要。

在这方面,咱们曾经做了相当多的工作,比方 Clip 和 Dall-E,它们都朝着多模态方向倒退。这并不是一个非此即彼的状况,有人说如果没有视觉,不从视频中了解世界,就不能解决这方面的工作。

但我想说的是:有些货色从图像和图表中学习起来要容易得多,但咱们依然能够通过文原本进行学习,只是学习速度要慢一点。

以色彩举例。尽管咱们不能从文本中学习色彩的概念,但每个神经网络都通过“嵌入(embeddings)”示意单词、句子和概念,这些 embeddings 也就是高维向量,能够晓得什么与什么相似,神经网络如何对待这个概念或那个概念。所以机器能够通过嵌入向量来判断色彩,紫色比红色更靠近蓝色,但比橙色更靠近红色,如果有视觉感知,色彩之间的差别一眼就可看出,但仅从文原本分辨,可能须要更长的工夫,兴许你晓得怎么交换,曾经理解了单词和语法,但也须要一段时间能力真正了解色彩。

因而,多模态非必要,但相对有用。尽管这是一个很好的倒退方向,但我并不认为必须在以后计划和多模态中二选一。

Yann LeCun 的论文中提到:最大的挑战之一是,预测具备不确定性的高维向量。咱们须要采取特定办法来解决这个问题。我发现,其实以后的自回归 Transformers 曾经具备该属性,但论文中没有抵赖这一点

举两个例子。一是给定某书中的一页,预测下一页。这有很多种状况,是一个非常复杂的高维空间,但自回归 Transformers 能解决得很好。对于图像处理也是如此。比方 OpenAI 在研发 iGPT 时,将 Transformer 利用于像素预测,能以非常复杂和奥妙的形式生成图像,成果十分好。它有很不错的无监督示意学习能力。

Dall-E 1 的状况也是一样。因而,论文中强调以后办法无奈预测高维散布的局部是谬误的,那相对能够胜任。

Q:当初有一种观点:安顿一批人类训练员与大型语言模型(如 ChatGPT)一起工作,并通过强化学习对其进行领导。仅从直觉来看,这并不能无效教会模型了解潜在事实(underlying reality)。

A:我不批准这个说法。首先,咱们的预训练模型曾经把握了对于潜在事实的必要常识,并对语言及其产生过程有了深刻理解。

兴许我须要再次强调一点。在大型语言模型中,学习到的文本数据是对真实世界过程(real-world processes)的压缩示意,其中蕴含无关人类思维、感触,以及人类所处环境和人际互动等方面的信息。

一个人可能处于不同情境,而这些情境所波及的信息是压缩过程的一部分,并由神经网络示意,以生成新的文本内容。语言模型越好,生成模型的体现越好,保真度越高,就能更好捕获这个过程。要想构建一个高质量的零碎,只需遵循“如果办法无效,则持续应用”的策略。

那些领导模型学习的训练员团队自身也在利用 AI 来辅助他们的工作。这些工具可能高效地实现大量工作,但仍须要人类进行监督和评估,以确保后果的高可靠性,这与人类的教育过程没什么不同。

咱们会踊跃寻求办法来进步模型的效率和准确性,以构建体现良好的语言模型。为了确保模型可能辨认幻觉(hallucination),须要进行额定的训练。一旦模型把握了该技能,就能够将其用于解决业务需要了。而强化学习人类训练员或者其余相似的办法可能教会模型辨识幻觉。尽管目前还没有确切的论断,但咱们很快就会找到答案。

Q:你近期关注的钻研方向是什么?

A:进步模型的可靠性和可控性,放慢模型从大量数据中学习常识的速度,并升高对人工领导的依赖,避免出现“幻觉”。我认为这一系列问题密不可分。此外,还须要留神这些问题所波及的时间跨度。

5

AI 对社会治理的影响

Q:你谈过 AI 给专制带来的影响。若是领有短缺的数据和足够大的模型,就能够用这些数据来训练模型以取得让所有人都称心的最优决策。你感觉这会帮忙人类进行社会治理吗?

A:咱们还无奈预测政府将如何利用这种技术来获取各种倡议,不过在专制问题上,将来可能会呈现这样一种状况:因为神经网络无处不在且对社会产生微小影响,咱们将不得不建设某种专制流程,让公民向神经网络提供信息,包含他们心愿的事务状态、行为形式等。

这可能是一种高效的专制模式,即 咱们能够从每个公民身上获取更多的信息并进行汇总,而后指定这些零碎如何采取行动。当然,这会引发许多问题。

以后的模型还有很多晋升空间,将来,特地是在训练和应用模型方面会产生一些变动,从而使模型可能更好地解决这类问题。

Q:按你所说,每个人都有机会输出数据,然而这也牵涉到世界模型的问题。你是否认为 AI 零碎最终能够变得足够弱小,可能了解某种情境并剖析所有的变量?

A:剖析所有变量意味着须要综合思考情境中的所有因素,确定重要变量,并进行深入研究。这个过程相似于读书,我能够抉择读一百本书,也能够仔细阅读一本书,这样就能够取得更多。这种办法在肯定水平上是值得推崇的,但兴许在某种程度上,了解所有事件是根本不可能的。

举个更简略的例子:当社会或公司面临简单状况时,即便对于中等规模的公司来说,解决大量数据和剖析信息的工作也超出了集体的能力范畴。然而,通过正确地构建 AI 零碎,就能够在各种情境下取得极大的帮忙。

欢送 Star、试用 OneFlow 最新版本:https://github.com/Oneflow-Inc/oneflow/

正文完
 0