关于开发者:应用开发者的疑问大模型是真正的银弹吗

2次阅读

共计 2952 个字符,预计需要花费 8 分钟才能阅读完成。

被当成银弹的大模型

ChatGPT 火了之后,大模型仿佛被当成了真正的银弹,所有的体验问题都想通过大模型解决:

  • 能不能和大模型对话订机票?
  • 自然语言生成 SQL,简化报表剖析工作?
  • 大模型帮老年人操作软件?
  • 能不能用于辨认敏感信息?
  • ……

仿佛大模型成了自然语言工程畛域的真正银弹。然而我依稀记得《人月神话》作者 Fred Brooks 所说的“软件工程没有银弹”;以及华尔街投资巨匠们说的“当所有人都在议论一件事件的时候,阐明这件事件曾经呈现了泡沫”。这里就想和大家简略探讨下大模型的局限以及真正的实用场景。自己不是业余搞算法的,还心愿算法大佬们多多发表观点。

大模型是银弹吗?

把一些软件性能接入大模型,精度之类的问题或者还能够通过大量的训练解决。然而当真正面对终端用户时,上面这些问题却可能导致大模型不是最优解法。

低廉的费用

吴军的著述《浪潮之巅》认为,互联网和计算机软件行业能疾速扩张这么多年的重要起因就是其很低的扩张老本。传统行业,比方福特汽车,每卖出一辆汽车,就必须付出一辆车的生产成本,甚至要扩建厂房等等,这最终使得福特汽车的规模扩张不再划算,不得不市场份额让给其余厂商。而计算机软件能够简直零老本的复制扩张,互联网软件减少一个用户也简直没啥服务器老本,就很容易造成赢者通吃的场面。这件事在大模型软件上可能就不太一样了。OpenAI 可能将大模型的收费应用扩张到如此规模,很大水平上得益于微软的投资,据传言,微软给 OpenAI 投资过数百亿美元。咱们暂且不探讨大厂破费数亿训练费用的回本问题,只看 API 调用费用,也是一笔不太划算的交易。目前我保护的利用每台机器的 qps 大概均匀在三百左右(按一天 8 小时均匀,非峰值),在阿里云上这样的机器如果按 2M 带宽,每年的租赁费用大概在 3373 元,均匀到每天只须要 9 元。而如果利用全面接入了大模型,每次调用都是大模型产生的,目前 Open AI 的是按 token 免费的,最便宜的 GPT-3.5 Turbo 模型的价格是 0.0015 美元每 1000 token 输出,0.002 美元每 1000 token 输入,这算成人民币咱们就简略预计成每 1000 token 输入输出 2 分钱,也就是 0.02 元。

就算每次申请只消耗 10 token,假如机器是 200 qps,每天 8 小时,一天也须要耗费 0.02(20060608*10/1000)=1152 元。模型所耗费的费用是应用服务器费用的 100 多倍。

具体背地 Open AI 本人的老本是多少,就更不得而知,甚至有人认为目前 Open AI 为了疾速抢占市场,是在赔本卖的。

这就让利用的规模老本大大增加了,简直不可能是一个完全免费给用户应用的产品。

尽管我置信在未来随着技术提高,老本会大幅度降落,然而大概率不是最近。

迟缓的计算速度

对于 ChatGPT 纯正的聊天机器人,能够通过一个字一个字的流式输入来缓解计算速度迟缓的问题。然而对于想要通过它生成接口参数或者 SQL 的利用工程师来说,必须期待它残缺生成实现,能力调用接口将后果返回给用户。

而高性能计算机这么多年的倒退曾经让用户习惯了疾速响应的操作界面,现代人的工夫都十分贵重,不可能为了省几个步骤,却去期待更长的工夫。

多余的性能

大模型很弱小,可能答复迷信问题,能够写诗,还可能编故事,甚至是生成软件破译序列码。。。

然而这些性能对我生成利用接口参数有什么用?反而容易产生法律危险,使用者通过简略的“AI 投毒”,就能疏导大模型答复出带有偏见歧视的答案,而防备这个却须要付出微小的代价,甚至防不胜防,比方之前很有意思的 ChatGPT 奶奶破绽 [1]。

每当一门技术火爆的时候,工程师们总是蠢蠢欲动。在大数据火爆的时候,哪怕零碎里只有几条数据,也要上 Flink。大模型也有相似的问题,就为了生成几个 CRUD 的接口参数,就上低廉,迟缓又容易出法律问题的大模型。而漠视了传统计算简略,疾速且易于控制的劣势。

除了大模型之外的 NLP 技术有哪些?

大模型和传统 NLP 技术从算力耗费和能力上,都给人十分直观的差异,所以能力火出圈。大模型的定义又是什么呢?维基百科词条 [2] 对它的定义是,神经网络中的参数超过十亿的深度学习模型。所有的大模型都其实来源于 Google 在 2017 年发表的 Transformer 论文,咱们这里临时认为所有基于 Transformer 的都是大模型,下图是网上很火的大模型倒退树起源[3]:

在大模型火之前,尽管国内之前也有天猫精灵,科大讯飞等对话机器人产品,然而仿佛没有多少利用通过自然语言提供性能。甚至连特长做 im 的利用钉钉,仿佛也没有想要通过自然语言实现利用性能的想法。

然而依据我国外敌人的说法,因为国外人力老本高,很早以前,他们的很多利用就在通过对话提供性能。他们甚至连交电费的 APP 都反对通过对话缴纳电费。

我自身也不是 NLP 畛域的从业人员,对于大模型之外的 NLP 技术只能抛砖引玉:

  • 规定语言模型

1. 其实就是程序员常说的硬编码,应用相似于正则模式匹配的形式对自然语言进行解决,尽管当初听起来很“Low”,然而大模型火爆之前也有一些产品应用这个,这种算法尽管速度快,然而耗费人力与专业知识,好在有语言专家曾经做好了一些开源框架,比方 ChatterBot[4],Will[5] 等,Will 在 2018 年还被集成到了 Slack 中。

  • 统计语言模型

1. 不再须要程序员去编码规定,而是应用一些统计办法(比方 tfidf,主成分剖析),去计算语句的特色,比方词语的频率,常常和哪些词一起呈现等等。通过这个统计学常识再去计算新呈现的语句,常见的 主题剖析,情感剖析 等等都是相似的技术。
2. 用来做简略的文本分类成果很好,很多线上的垃圾邮件自动识别据说用的都是这种技术。

  • 神经语言模型

1. 咱们当下最相熟的 NLP 技术,在大模型之前有 RNN,LSTM 等,起初都被基于 Transformer 的大模型碾压。

将来

我认为大模型不是银弹,将来它可能往两个方向倒退:

  • 文本类的助理,比方写作助手,书面语教练,专家征询等等,这也是大模型的老本行;
  • 集成自动化厂商,比方 Zaiper[6],Alfred[7]等等,做一个对立的自动化助手付费产品,所有软件的自然语言操作都通过对立的入口进行。这样才是对用户更加不便的,而不是每个利用还要去找独自的助手去发问。

其余一些更简略的文本分类,主题辨认以及情感剖析等等工作,或者传统 NLP 有更加适合的计划。

作为一个利用开发者,并非 AI 的专业人士,文中可能有很多不业余的中央,本文纯正是抛砖引玉,心愿吸引更多的专业人士前来探讨。

参考链接:

[1]ChatGPT「奶奶破绽」火了,竟能骗出 Win11 秘钥,信息安全问题令人深思!– 知乎

[2]https://zh.wikipedia.org/wiki/ 大型语言模型

[3]https://github.com/Mooler0410/LLMsPracticalGuide

[4]https://github.com/gunthercox/ChatterBot

[5]https://pypi.org/project/will/

[6]https://zapier.com/

[7]https://www.alfredapp.com/

作者|悬衡

点击立刻收费试用云产品 开启云上实际之旅!

原文链接

本文为阿里云原创内容,未经容许不得转载

正文完
 0