关于人工智能:专访高雪峰从GPT35到4超强推理能力的实现与图密不可分-36氪专访

8次阅读

共计 9432 个字符,预计需要花费 24 分钟才能阅读完成。

“符号”与“向量”,AGI 的两条腿。

整顿 | Ricky
作者 | 王与桐

2023 年 3 月 15 日,GPT4 亮相。只管以 GPT3.5 为根底的 ChatGPT 更具里程碑意义,毕竟引发了寰球 C 端用户的应用,然而在更多 AI 从业者看来,GPT4 的意义远高于 3.5,这是因为,GPT4 具备了令人惊艳的“逻辑推理”能力。

但为什么可能实现“推理”?以往热衷分享技术细节的 OpenAI,这次却“守口如瓶”,这让寰球用从业者和用户都在猜想其中技术原理。

高雪峰也是其中一员,他的想法是,“大图”和“大模型”是反对 AGI 倒退的两条腿,二者缺一不可。当初,业内广泛认可大模型的价值,并因而呈现了一众大模型创业者,然而对于“大图”在 AGI 倒退过程中施展的作用,却并不清晰。

高雪峰通知 36 氪,深度学习就是通过概率的形式来记忆和存储泛化常识,也就是大家熟知的“向量”,大模型就是“计算概率”畛域的杰出代表;与“概率”绝对应的,“符号逻辑”是逻辑推理畛域的代表实现,图论是逻辑推理最好的撑持。他从产品角度登程,认为至多能够在 prompts engineering 的阶段,联合“图”来实现 GPT4 的“推理”目标。大模型能够很好的积淀泛化常识,然而如何把泛化的常识进行关联并为人所用,就须要符号逻辑零碎的深度参加。

高雪峰,历任 IBM 认知计算研究院院长,阿里大数据 \&AI 产品部门总经理,在大数据和 AI 应用领域领有多年的产品研发和商业化教训积攒,曾率领团队打造出多款具备国内影响力的大数据和 AI 类相干产品。在 AI 行业的摸爬滚打,让他洞察到了 AI 的趋势,并在 2021 年决定进去做 AI 根底层的守业。

Fabarta 成立于 2021 年,以“大图”能力为外围。在守业初始,随着美国公司 Snowflake 的上市且市值最高曾达 1200 亿美元,国内也引发了数据库守业热潮,但在那时,高雪峰就决定不做数仓,他认为那是 BI 的 infra,他要做的是 AI 的 infra。

一年半研发工夫让 Fabarta 等来了行业的变动,此刻,高雪峰认为最重要的就是团结所有力量,学界、大模型、利用方、基础设施团队,单干碰撞出“大图”和“大模型”的结合点,做出真正具备推理能力的中国 AI。

01 GPT4 的超强推理能力,源于“图”

36 氪: 你在 2021 年开始守业时,那时 OpenAI 的 GPT3 应该曾经呈现了,过后行业里是怎么认知的?

高雪峰: 那时开源的是 GPT2。大家举的例子就是:你看 OpenAI 做了几年也就那样,中国有啥大模型?

我在阿里时就负责大数据和 AI 的相干产品与解决方案,在大数据方面以离线和实时数仓,数据湖的产品为主,在 IBM 认知计算解决方案研究院里次要负责帮忙企业智能化降级过程中须要的大数据,数据分析和 AI 的相干技术。

2021 年,Snowflake 缔造的神话,让很多人意识到了数仓的价值,因而那时很多投资机构跟我说:“雪峰你做数仓,数仓这个我的项目最火,估值也能够很高。”

但我不做。如果是在五六年前做数仓,我感觉能够做,因为数仓是面向 BI 的基础设施。但时代曾经不同了,2021 年, 我想做的是 AI 外围基础设施。

所以我就跟很多投资人说, 将来 AGI 的外围根底就是大模型和大图体系联合在一起, 只有这样能力作为通用人工智能的撑持。过后大部分人认为大模型和大图都不靠谱。

36 氪: 您提到的大图和大模型是 AGI 的根底,怎么了解?

高雪峰:真正做到 AI 须要两个名词,一个叫向量,一个叫符号,别离对应着大模型和大图。

向量就是概率,能够把大模型 transformer 了解成在向量畛域计算概率,利用大量高维参数组成的向量,通过矩阵运算来计算概率。一长串字符之后是 a,它会预测下一个字符可能是 b,b 之后可能是 d,d 之后可能是 a,就是这种预测,最初用文本生成。不论是之前的 Bert,还是当初广为风行的各种基于 Prompts 的多模态大模型,都不扭转它做概率预测这件事。

但它没有方法做逻辑推理,GPT3.5 也没有方法做逻辑推理。

比方咱们问它:姚明出世的那一年 NBA 季后赛的亚军教练是谁?这个看起来挺简略的问题,放到 GPT3 里,它就答复得乌七八糟。教练是谁也不晓得,年份也弄错了。

GPT3 能猜对工夫年份,但很多中国的模型会把那道题放在 2002 年。

36 氪: 为什么是 2002 年?

高雪峰: 姚明出世那年是 1980 年,2002 年应该是姚明第一次取得 CBA 冠军的工夫,网上它的信息会很多,概率不晓得问的是生日还是什么货色。

为什么我不问冠军?因为冠军宣传得多,亚军宣传得就少,问亚军的话它可能就乱了。这齐全就是概率,看网上或 wiki 上哪个信息或更多一些。

但 GPT4 的逻辑推理能力是很强的,它能够很清晰地把我方才的问题拆解,并精确答复。目前看来只有 GPT4 可能做到。

36 氪: 3.5 和 4 两头到底是什么技术的呈现或者利用,导致了这种变动的产生呢?

高雪峰:抛开多模态的新能力,外围就是逻辑推理能力的晋升。 GPT4 的推理能力变得十分强。就像方才提到的,大模型就是计算概率, 符号逻辑能力去辅助推理,图论是它最好的撑持 。这就是为什么咱们要把大常识图谱而不是传统意义上小数据量图谱的力量交融在一起,能力具备外围的推理能力。

GPT4 里肯定加了很多推理的能力,然而具体怎么交融的,OpenAI 不公开,咱们也不得而知。

你间接问 ChatGPT“你常识图谱的能力都用在了哪些局部?”,它就会答复“ 在预训练、prompts 的梳理都用到了图技术 ”。你再问“你用了一些开源的图的技术吗?”就会被告知“都是自研的技术”。前面就不会答复了。

为什么我说 GPT 不同版本的技术,推理能力的显著晋升,肯定跟图相干技术的联合是密不可分的,还是从一个例子登程,用这个问题来去挑战各个 LLM:“姚明出世的那一年的 NBA 季后赛亚军球队的教练是谁?”

目前来看,除了 GPT4 以外,其余的大模型都无奈给出正确的答案。然而,如果咱们将问题拆解,“姚明出世在哪年?”“1980 年 NBA 季后赛的冠亚军球队别离是谁?”“1980 年,费城 76 人队的教练是谁?”,有很多优良的 LLM 都能够给出对的答案。之所以呈现这种落差, 其本质还是 GPT4 在纯概率的模型之上进行偏差符号的逻辑推理 ,那肯定会产生让人意想不到的后果。

先不说 GPT4 能够在很多业余的畛域常识,比方很多经典的迷信定律,规定等进行景象和逻辑的推理,至多从下面咱们提到的很简略的例子里,在输出 Token 里要害实体与其逻辑关系的解析和提取上,我揣测肯定采纳了一些与图无关的技术来进行解决。所以咱们说代表符号和连贯主义的工程实现,与代表概率和向量畛域的工程实现交融在一起,能力体现出令人越来越诧异的智能。

图的技术与 Transformer 的技术有很多能够联合的点:1. Transformer 的训练架构接管图构造的数据,使得模型更好的了解输出数据之间的关联关系。2. 用图构造的数据来训练 Transformer 模型。3. 图构造的常识蒸馏,以应答细分畛域的专家常识。4. 损失函数的解决上联合图数据模式的从新定义。

就像咱们人脑有个很典型的特点,比方去年的某一天,我在一个公园里遇到了一个多年未见的老友,相谈甚欢。那这个人的含糊印象(向量特色),与过后公园的环境,天气,体感(向量特色),以及咱们在做什么事件(连贯关系)都会记忆在人脑之中。当我在到这个公园,相熟的环境,我就可能通过产生过的这个链接关系,想起这个老友的样子。构建这样一个可能把实体,以及其连贯关系,还有对应的向量特色交融在一起的多模存储与计算的大规模引擎,就是将来咱们想要做的事件。

36 氪: 所以 GPT3.5 到 4,在向量这个层面艰难没有更多实质的变动了对吗?

高雪峰: 它可能参数更多,数据量也会更大。

36 氪: 质的飞跃,起因集中在符号这个层面?

高雪峰: 对,没错。GPT 具备推理上的能力,才是最恐怖的。比方依据物理学的原理或公式,我通知它一个景象,它就会通知我有什么后果产生,帮你做出推理。

毕竟,GPT3.5 进去的时候,咱们都没有感觉这种货色将马上颠覆世界,我感觉就是鼎力出奇观,质变会带来量变的必然过程。包含 New Bing 进去后,其实都是围绕 GPT 在产品上做翻新和改革,比方 New Bing 能把实时搜寻进去的信息 summarize 并很好地组织起来,而后编辑适当的 prompts 调用大模型的 API,失去后果后把后果组织起来反馈给产品上的客户。这其实就是产品的交融,并没有让咱们太惊艳。

36 氪: 所以咱们须要追赶的,不仅是大模型一件事。

高雪峰: 咱们很多外乡的开源大模型还停留在拿大量的数据、prompts 以及 transformer 的性能上。但真正要实现肯定是向量加符号的交融,这也是学术上大家都认可的方向。

向量就是概率,概率就是不可解释,符号的图论就是可解释,两者交融在一起能力走向真正的智能。GPT 有思维逻辑,概率会补充思维逻辑,思维逻辑这张大图又会验证概率,修改概率预测的参数模型,就能够实时且相辅相成地学习新货色。这就是咱们将来通用人工智能所须要的智能。

这也是咱们守业抉择图赛道和方向的起因,因为大图和大模型是通用人工智能的两条腿。

咱们等来了大模型的暴发,但目前找不出真正具备分布式计算能力的大图零碎,也没有开源,所以咱们只能一步步去做。这须要工夫的积淀,不是一两年就能做出驰名中外的大图零碎。真正能承载符号推理的大图零碎,肯定能帮忙将来通用 AI 实现十分弱小的推理能力。

36 氪: GPT4,或者说在 AGI 的基础设施中,其“图能力”是怎么发挥作用的,是相似于引擎吗?

高雪峰: 你能够把它了解成一个图的引擎,可能存储图构造的数据,并在图构造数据上做高速的检索。像搜索引擎 Google、百度背地都有宏大的图的能力做搜寻的撑持,但并不能间接拿进去作为通用产品给别的利用应用。

GPT4 如果有图的零碎,肯定深刻交融在预训练各方面的过程里,不是可剥离可抽离的货色。咱们将来想做的是开源凋谢且具备分布式存储和分布式计算性能的大图引擎,咱们也会跟国内外开源的 LLM 或多模态模型进行深度的单干,来确定怎么利用大图的能力去撑持预训练、prompt engineering 或者是从新定义 loss function 这样一些收敛能力进行深度联合。这肯定是须要尝试纠偏,再去调整的的过程。

36 氪: 那从您的角度,当初大图该怎么样做,能力助力中国的 AGI 倒退?

高雪峰: 这外面有很多外围的技术,目前尚不可知。这须要学术上钻研它们的实践结合点,从工程上咱们跟大模型的公司单干实现这件事。

咱们也会开源,也要把大图的分布式计算效率解决。图上的分布式计算很少有人做,但数仓这种二维关系的分布式计算很多人做,其中的起因是图的分布式是一个 NP 问题,也就是在数学上无解的问题。不管怎么去拆分你的大图,分成什么样逻辑的 partition,分布式的通信都不能达到最优的效率。 因为图最善于的利用就是多跳, 大规模多跳的状况下,如果出发点是 1000 个点配上全连通的图,1000 个点 5 跳 6 跳的门路会把所有的点全副遍历一遍, 数据量十分大,这就很难拆分,下一步不可预测 。不管怎么拆都波及到不同的分布式计算节点之间频繁的网络通信,这个就是所谓图的 Np 问题。

咱们当初在工程实现上做了很多优化,比方利用原图内存当中的多级缓存,就能够很容易预判多跳应该拜访哪些计算节点,防止产生频繁的网络通信和风暴,这就是咱们做的工程上的优化。

咱们预计会在下半年开源外围引擎,到时应该是世界上惟一一个真正做图的分布式计算来撑持大图的开源零碎。现阶段大部分图的相应利用,还都是以 mpp 架构为根底,不能做到云原生的大图存算拆散以及分布式计算这种典型架构。

02 要做加油站旁边的便利店,而不是再做一个加油站

36 氪: 你方才提到和大模型的联合,咱们当初停顿到什么水平了?

高雪峰: 咱们本人外部也做了一些 Hackathon 的翻新尝试。在输出 prompts 的阶段把图的能力引入进来,其实还是做 prompts engineering,我感觉这种办法能迅速地让没有推理能力的大模型产生推理能力。我认为还是偏产品层面的组合,有点像 New Bing 的实现形式,或是微软 office 365 的 Copilot。Copilot 里也推出了新的产品,你据说过微软推出图的产品吗?但它推了一个 Microsoft Graph,把不同文档或微软的组件和工具用图的形式组织起来,不同的文档之间能力互通,它也是利用产品的形式,再去调用大模型 API 产生协同价值。

我感觉这一点是能够做的,但也须要咱们图和产品的能力,更重要的是在预训练过程中将向量、逻辑符号和图的逻辑推理能力交融在一起。这一点须要一直的工程实际,才晓得如何交融。

这个问题扔到业界轻易问一个人,钻研过这个的都会感觉有联合的点在,但联合的点在哪须要大家一起来试。

36 氪: 当初大家都还在摸索的阶段?

高雪峰: 必定要摸索。咱们和一些出名院校在图计算畛域做学术共研,真正的阶段性的学术成绩能够发十分多顶刊论文。

独特摸索也是咱们抉择开源的最次要起因 。既然我的引擎是惟一的具备分布式计算能力架构的引擎,我闷声去跟云厂商单干赚钱就好,为什么要开源呢?就为了最终的目标,开源当前,大家能够拿来碰撞去试,甚至 debate 这样的架构里哪些性能对预期模型反对时有实质的差异,咱们才晓得大家怎么用;如果是关闭的货色,就很难造成合力。抉择开源不是因为要通过开源做商业化的转化,而是为了真正想要实现的目标。

36 氪: 你方才提到,在 2021 年曾经看到 AI 的趋势了,为什么没有抉择做大模型?

高雪峰: 我过后认为,肯定要做 AI 的基础设施。尽管很多科学家在做深度学习,但要让我找上百人的话,这在中国比拟难,但要做成大模型,我感觉没有上百人是实现不了的。

而且训练大模型的资源老本很高,对于守业团队来说,这都是很难超越的阻碍。最重要的就是用于训练的资源,当初咱们整个儿的 A100 卡的资源都十分的缓和,很多的畛域都须要 GPU 卡的集群,除了大家都在议论的 AI 大模型的训练和推理外,主动驾驶,金融的量化剖析等等都须要 GPU 的资源。而当初云厂商也都在本人集中力量做属于中国的大模型,还有越来越多的守业公司退出到这个队伍中来。云厂商凋谢的 GPU 的服务通常都是公共的分时服务,也很难在一段时间之内集中大量地给到哪些企业进行大模型的训练。

这就会呈现用于训练和推理资源挤兑的问题。所以大厂在做大模型的这件事件上还是有先天的资源上的劣势的。

36 氪: 守业公司做大模型,还是须要源源不断资金来源的。

高雪峰: 我感觉,踏踏实实地做客户做业务,与客户、社区一起成长,这是做 To B 该有的心态。

如果我去做大模型,可能霎时就会烧掉我所有的钱,而后还没有显著的商业化后果,他人不会为你买单。

OpenAI 经验那么多年,烧了那么多钱,是因为它被定义成非盈利组织;直到微软投进来,才决定扭转本人的营利性准则。有了投资盈利 100 倍的盈利指标而后再去做非盈利的事件。

可成立一个公司还是须要奔着商业化的方向去做 ,所以国外目前跑进去的寥寥,真正出圈的就是一家做大模型的 OpenAI。

36 氪: 当初大模型守业热潮曾经来了,所有公司都想要成为中国版 OpenAI。

高雪峰: 大模型当初不是一种容易复制的货色,OpenAI 也经验了很多挫折。

晚期的 Open AI 在 prompts 和 design 之类的干燥工作上也下了很多的功夫,而 Transformer 的技术很早就有了,像之前的 Bert 等也都是基于 transformer 来做的,所以业界在算法上也都在走这个路线。

所以并不是说大模型是一种容易复制的货色,我不认为有几亿人民币就能搞定这件事件。训练一次千亿级别参数的模型,像 GPT3.5 或 GPT4 这种,各种老本叠加起来,必定须要上亿美金,这是不可能扭转的。

当初也有一些公司专门做框架的优化和分布式训练的优化,想方法让大模型参数很多时,所需的资源变得越来越少。但优化不了多少,它没有方法扭转量级。所以 LLM 的技术或者模型的倒退,在给本人带来商业价值与营收之前,先是给像英伟达这种 GPU 的厂商带来特地多的营收利润和发展前景。

还有一件确定的事是,耗电量的晋升和导致寰球变暖。

36 氪: 前两天我还看到新闻,说 GPT 目前每天的用电量抵美国的一个小镇。

高雪峰: 是的。所以做大模型,是十分有挑战的事件,不论是从算法,优化,数据的整合,以及算力资源的调配,当然还有继续的资金的反对,都十分具备挑战。

36 氪: 当初还有一个争议,就是大模型走开源还是闭源的路线。

高雪峰: 我跟一些圈里技术人的交换中关注到这个争议,我集体感觉闭源的大模型这件事是有肯定局限的,也都置信必定会疾速地涌现出各种开源畛域的 LLM 或者多模态的通用大模型,甚至是在不同的业余畛域的专有大模型。

为什么闭源有局限性?一是绝对更耗钱。二是闭源就是关闭的生态,这样就很难产生有阶段性的商业价值、好的将来商业后劲。

我认为,在 AI 这个畛域里,真正的分布式工程化能力十分重要。 好的工程化 AI 平台,和承载很多优良的开源大模型的公共平台,我感觉都有价值的

比方美国的 Hugging Face,我感觉它的后劲应该是更大的。随着模型生态越来越多,须要有社区把不同的模型和其潜在用户、训练者、优化者这些不同角色的人链接起来。这个能量能够比喻成过后的品牌经济,像阿里巴巴的天猫,它就是把商品和消费者在平台上链接起来。阿里做了 ModelScope,也想实现像 Hugging Face 的初衷与目标。Hugging Face 目前的营收虽不多,但它如果真的想盈利,霎时就会做成很大的营收。你能够看一下下面各种模型的下载量,它们投入了很多扎实的功力,帮忙优化模型让它可用。

所以,在这样大的细分畛域里,肯定有很多机会能够去做,并不是所有人都得去做大模型。在中国就是好多人冲进来做大模型,而且融了很多钱。在美国呈现一个加油站,特地挣钱,所以加油站左近就又呈现了快餐店和小旅馆等,缓缓地加油站旁边就造成了一个小镇;反过来在中国很典型的场景是,一个加油站十分挣钱,四周就会呈现十几家加油站,把这块地给掏空。

GPT 进去后,美国涌现出很多 AI 通用的工程化平台和各种各样细分畛域大模型。尽管不是像 OpenAI 那样通用的大模型,然而在细分畛域里成果是十分好的。参数能够不必那么大,达到百亿或者近千亿的规模,但它能够通过优化的形式。因为它是特定畛域,不是齐全通用的,数据起源也会容易一些,不必像 OpenAI 找那么多的公开数据以及书籍,对数据的品质还有极高的要求。

而开源可能减速生态倒退

36 氪: 当初国内做大模型的守业公司、大厂很多,会不会呈现资源扩散的问题?

高雪峰: 目前来看,对中国来说算力是最难冲破的,科学家的储备也有余。然而绝对于算力来说,数据这个畛域,中国应该会越来越有劣势,中国当初数据量占世界的 9.9%,四年之后可能会占到世界的 20%,如果能用来进行多模态大模型训练必定对中国大模型倒退非常有益处。

并且往年大数据局的成立,在咱们行业从业者看来是一个十分利好的音讯。

03 AI 时代,要有本人的 Infra

36 氪: 图引擎和图数据库的关系到底是什么样的?

高雪峰: 咱们把 fabarta 的产品定义成图分布式的交互式查问和图计算交融的引擎,没有把它定义成图数据库。为了投合大家的了解,我会把它比喻成大图 TP 与 AP 交融的分布式数据库能力,但其实定义成“集图数据的存储,交互式查问与图计算算法交融的引擎“更适合。

数据库是十分泛的概念,以后很多图数据库也能解决当下的问题,但须要图剖析平台这类低代码化产品,客户能力很好地应用,否则也会面临很多问题。但它没方法间接演变到我想要的星辰大海。关系型数据库、数仓都是由各种引擎组成的,比方存储引擎、计算引擎、剖析引擎。数据库更像是一个大的概念,解决关系型数据的各种引擎协同在一起,能够称为数据库,解决非关系型,比方图的数据的各种引擎聚合在一起,也能够叫做数据库。

数据库只是一个名词 。当初泛数据库更像基础设施的代名词,对于各种数据存储计算和解决就叫数据库。no SQL 数据库、时序数据库与多模数据库都是存储各类不同品种数据的数据库。

原来的图计算与图数据库是齐全割裂的 ,图计算是学术上做的各种各样算法,可解释的 AI,而后是分布式的计算框架,跟数据库没有关系。图数据库是在数据之上做数据存储、数据多跳查问,也是 SQL 解析之类的工作。这就是图数据库与图计算很割裂的体现。

我感觉引擎也好、数据库也好,都只是个概念,AI 的 infra structure 须要大图引擎与大模型协同在一起能力去工作。

而 infra 这个概念,其实大家也不肯定已有共识。传统的 infra 概念来自于云厂商体系;而目前,AI 没有造成水电煤气这样通用的能力,那就不须要具备本人的“infra”。

然而将来,AI 未来能成为真正的水电煤气,这是我深信的。大模型进去后,大家才开始谈 AI 的 infra。有人会把 AI 的 infra 等价为大模型,我不认可,这并不是通用人工智能将来的根底。

所以我始终说大图大模型的深度交融就是将来 AGI 的 Infra。

36 氪: 有人认为,AI 快速增长会挤占肯定的云计算市场,您是怎么对待的。

高雪峰: 如果 AI 上面的技术,比方大图、大模型变成真正的 infra,它肯定须要云原生。因为它须要弹性扩张,所以肯定要放在云上,那怎么挤占云的资源呢?大模型推理起来,须要 GPU,肯定会让云市场变得更大。

也要看你如何定义市场,如果是传统面向 ERP workflow 或面向 BI 统计分析指标剖析传统数仓,或者像游戏这类 TP,我认为这部分市场才是既有云的市场,这样的话肯定会挤占。

36 氪: 你们如何一边翻新,一边喂饱本人?

高雪峰: Fabarta 构建在多云之上的云原生分布式图数据库引擎能够将企业不同数据源的数据和数据之间的关系用图的形式进行存储和剖析,基于 Fabarta 图剖析平台的低代码化能力联合在行业中的图剖析算法与框架的积淀,能够更好的帮忙企业级客户构建基于图的场景化剖析 (风控,营销,智能化运维,行业常识图谱等)。

36 氪: 也就是说,你们当初业务其实分为两局部,一部分是给客户应用的图引擎 + 低代码产品,另一部分是与 LLM 联合的大图产品?

高雪峰: 你能够了解成三局部:

一个是最上层,图与细分场景的深度交融,比方 Data Fabric,下一代的数据平台,这个市场是无限大的,因为大家曾经不可能做数据的大集中。而且湖仓一体的倒退会导致越来越多数据割裂在不同的中央,而且没法治理。我先做基于图数据组织的数据资产地图,缓缓把它做成下一代的 Data Fabric,解决扩散的,异构数据之间的协同计算问题,这是一个星辰大海的市场。

两头是 Intelligent workflow。以后大模型的能力进去后,企业既有的工作流就智能了吗?并不是的,将 AI 的能力,融入企业的工作流,还是有十分多的挑战,所以低代码平台要先一步步把这件事做进去。咱们先通过将对图数据的各种模式查问和算法剖析的能力形象积淀在平台上,在通过低代码,进而无代码的形式对业务组件进行编排并产生业务价值,最初通过 App 的 Builder 间接生成能够为用户带来价值的利用组件,先通过可解释 AI 赋能企业工作流的智能化革新,进而融入其余 AI 的能力,打造企业的 Intelligent Workflow。

最初的引擎就是通用人工智能将来外围的基础设施之一。这就是咱们为之致力的方向。

编者按:本文来自公众号“数字时氪”(ID:digital36kr),36 氪旗下官网账号,作者:王与桐,Fabarta 经受权公布。

正文完
 0