关于人工智能:头部大模型公司进京赶考向量数据库成为应考神器

5次阅读

共计 3171 个字符,预计需要花费 8 分钟才能阅读完成。

日前,由品玩主办的「模型思辨」国内大模型产业生态研讨会在北京举办,Zilliz 与 360 团体、阿里巴巴、昆仑万维等来自大模型产业链的头部公司及投资机构参会,会上 Zilliz 创始人兼首席执行官星爵、360 团体创始人周鸿祎、昆仑万维创始人方汉等重量级嘉宾更是从不同角度分享了对大模型的独到见解,精彩观点的交错与碰撞背地,是众人对于中国大模型将来的积极探索与期待。

其中,值得关注的是对于向量数据库的探讨,星爵从大模型存储的角度为大家详解向量数据库之于大模型的重要意义。

星爵认为:

  • 挪动利用时代程序开发经验了从简单到简略的过程,AI 浪潮的降临却从侧面进步了程序开发的老本,大模型时代之下 CVP Stack 这种新范式的呈现扭转了这一现状,在其加持下,人人都可能是 AI 时代的工程师。
  • 大模型的倒退离不开存储这一关键点,其中以 Milvus 和 Zilliz Cloud 为代表的向量数据库扮演着大模型记忆体的角色,能够让大模型们进行常识加强。
  • 下一个 Killer App 会是智能体,它同样须要向量数据库的存储和检索能力。能够预感,向量数据库将迎来疾速的市场规模增长,将来可期。

以下是星爵演讲的精彩观点:

从挪动利用时代到大模型时代

当下的时代常被冠以很多花里胡哨的称呼,然而早在十年前,硅谷便感触过同样的激情。过后硅谷的每个周末或者任何一座大城市都有一群人在兴奋地探讨 iOS 和 Android。十年,咱们见证了挪动技术的成长,扭转了生存的方方面面。

十年前,之所以有那么多挪动开发者涌入这个赛道,起因是安卓和 iOS 极大地简化了挪动开发的工具栈,升高了手机程序利用开发的难度。回到 AI 畛域,只管在过来十多年的工夫里它始终处于一直升温的状态,但实际上整个畛域的 Stack 比重相当高。这意味着,如果你想开发一个残缺的 AI 程序,须要在不同板块中至多抉择 1-2 个我的项目,并将这几十个我的项目串成本人要做的解决方案。

大模型呈现当前,工具栈变得更加简化,开发者能够在一个周末的工夫做出一个不错的 demo。而这并非是天方夜谭,现在炽热的框架我的项目 LangChain、LlamaIndex、Semantic Kernel,做的都是同一件事,即让更多的开发者用框架将三个工具栈整合在一起。由此,便能够实现 12 个小时写出一个 AI 应用程序的想法,而这个应用程序比之前破费几百万开发进去的应用程序能力还要高。

这种模式就是 CVP Stack,其中,C 的意思是以 ChatGPT 为代表的大模型,它在 AI 程序中充当中央处理器的角色;V 代表 Vector Database,即以 Milvus 为代表的向量数据库,充当 embedding storage 的角色;最终会通过 prompt 的形式进行交互。在我的概念里,prompt engineering 并不是最终状态,所以对它的了解能够再深一层,变成 Product Design。事实上,你用 prompt 提出一个好问题和跟产品经理提出一个产品设计方面的好问题,在实质是一样的。

总结来看,在大模型时代下,无论你是否写过代码,只有你有一个 ChatGPT 账号、会写 prompt、找到一个 embedding 的数据库为模型提供相干畛域的常识,甚至说为其提供一个缓存层,具备以上条件,你能够轻而易举地成为一个很好的工程师。举个例子,咱们的共事用了两天就做出了一个 ChatGPT + Milvus 向量数据库的利用,它的名字叫 OSSChat(https://osschat.io),用于解决开源我的项目文档简短、不易查找等问题,目前曾经反对几十个支流的开源我的项目,每天都有很大的访问量,用户甚至能够去生成开源我的项目的代码。

存储比计算更便宜,大模型也不例外

大模型更新的工夫比拟长,常识也具备肯定的滞后性(例如 ChatGPT 的常识只停留在 2021 年底),如果用当初的数据库存储形式,能够把最新的常识提供给向量数据库,对大模型进行常识加强,能够失去更好的答案。不止如此,大模型的训练老本昂扬也是不争的事实。

这次我想重点谈谈老本问题。在计算机发展史中,最经典的架构是冯·诺伊曼架构,最外围的奉献就是实现存储与计算拆散,即把所有信息、所有计算归为计算问题和存储问题。存储与计算拆散有各种各样的益处,传统的冯·诺伊曼架构是把信息用二进制代表,实现存储和计算拆散。

大模型的实质是简单的神经网络,在这个神经网络中任何数据的传输都须要 embedding 作为两头介质,能够说,embedding 就是传输信息的根本单元。因而,embedding 是在传统的形象之上笼罩了一层适宜 AI 或大语言模型进行语义形象的数据表示。

而向量数据库负责的是 embedded 语义数据的存储与检索。咱们要把大语言模型和向量数据库分为两个模块,就是存储与计算拆散,正如冯诺伊曼架构一样。这样做的益处就是历史上存储价格永远比计算价格便宜几个数量级以上,大语言模型也不例外。假如有一个大模型能够做 100 KB Token,同样条件下,给到大语言模型运算的老本远大于做向量召回。如果这个大模型要做 1000 Token 呢?运算老本将更加低廉。尽管大语言模型将来会有越来越大的 Token 窗口,但咱们实质上不会把所有信息都分到大模型外面,且大模型不能笼罩全世界所有信息。

将来向量数据库应该会成为大语言模型存储的标配,传统的数据库之所以不适宜为大模型做存储,是因为它们没有语义表白且不能提供语义存储。如果说当初有一种数据库计划和存储计划,可能提供语义检索的话,只能是向量存储。

下一个 Killer App

讲完过来一年半年的机会,咱们来聊聊下一个机会是什么?

老周和轶航的对话有讲到智能体越来越被认为是下一代杀手级利用,对此,我很认同。大模型还须要人不停地给予提醒,智能体心愿通过做工作和场景拆解,解决有限简单的问题,最终实现和人一样的自我演进的能力,或者造成本人独特观点和演变的能力。目前,智能体的商业化曾经初露头角,例如 AI 偶像,它不肯定是大明星,能够是小网红,AI 通过复制一百个一千个本人和有数人谈恋爱来赚钱。

智能体须要记忆。人类的大脑有一个区域叫做海马体,负责长期记忆。记忆是人类智能很重要的局部,不可能明天把昨天的事件遗记还说本人很聪慧。行业外面的正在尝试用向量数据库为智能体存储长期记忆,因为向量数据库的老本是很可控的。假如有一个数字人从第一天开始装置大脑,与其他人没有区别,但每次跟外界的感知、跟外界对话的过程它都会记下来:明天这个人问了我一个不好的问题,今天他又问了一个我特地喜爱的问题……十年当前我仍然晓得从前和这个人进行过怎么的交互。而如果要做这种大时间跨度的上下文记忆,肯定要有一个具备低廉的老本、疾速召回并且可能增大的记忆体。想要满足上述需要,向量数据库是很好的抉择。

将来如果每个人都可能有几十个智能体帮忙咱们生产生存,像向量数据库这样具备语义检索的存储市场会迎来很大的增长。Zilliz 开始做世界上第一款向量数据库的时候,内存利用场景基本不是大语言模型,更多的是图片搜寻、视频搜寻,包含个性化的搜索引擎,但实质上都是用神经网络做成向量嵌入。大语言模型开发门槛的升高让这个畛域成为面向开发者敌对的 Killer 畛域,所以咱们认为向量数据库这个畛域将来几年将迎来疾速的增长与更加宏大的市场规模。

大模型时代,将来可期,而作为大模型记忆体的向量数据库,同样值得期待!

🌟全托管 Milvus SaaS/PaaS 行将上线,由 Zilliz 原厂打造!笼罩阿里云、百度智能云、腾讯云、金山云。目前已反对申请试用,企业用户 PoC 申请或其余商务单干请分割 business@zilliz.com。


  • 如果在应用 Milvus 或 Zilliz 产品有任何问题,可增加小助手微信“zilliz-tech”退出交换群。
  • 欢送关注微信公众号“Zilliz”,理解最新资讯。

本文由 mdnice 多平台公布

正文完
 0