关于人工智能:AI-Agent深入浅出以ERNIE-SDK和多工具智能编排为例

52次阅读

共计 3671 个字符,预计需要花费 10 分钟才能阅读完成。

在过来一年里,通用大语言模型(LLM)的飞速发展引起了寰球的关注。百度等科技巨头推出了各自的大模型,一直进步语言模型性能的下限。然而,业界对 LLM 所设定的指标不再局限于根本的问答性能,而是寻求利用大模型来执行更简单、多样的工作。这就是 Agent(智能体)概念的诞生背景。

Agent,能够了解为一个可能自主布局决策、综合使用多种工具以实现简单工作的零碎。在这个零碎中,大语言模型充当着“外围调度器”的角色。该调度器负责解读用户的自然语言输出,布局出一连串可执行的动作,并依靠记忆模块等其余组件和内部工具,逐渐实现这些工作。

2024 年,人工智能行业的焦点从通用大模型转向 AI 原生利用。这一技术改革,离不开 AI Agent 的深度参加。AI Agent 的外围价值在于适应多变的环境和需要,以及做出无效决策及牢靠操作,这预示着咱们正在步入 AGI(人工通用智能)时代。正如比尔·盖茨预言:“在将来五年内,这所有都将彻底改变。你无需针对不同工作切换利用,只需用日常语言与你的设施沟通,软件便能依据你分享的信息提供个性化反馈,因为它对你的生存有了更深刻的理解。”

ERNIE SDK

ERNIE SDK 近日新增了一项弱小的性能——Agent 开发,标记着 LLM 开发进入了新的阶段。基于弱小的文心大模型及其 Function Calling(函数调用)性能,它为 LLM 利用开发提供了一个全新的视角。这一框架不仅解决了 LLM 利用开发中面临的外围挑战,而且通过文心大模型 4.0 展现了其卓越性能。ERNIE SDK 针对几个关键问题提供了无效的解决方案:

1.Token 输出数量限度: 传统的大模型剖析总结大型文档时会受限于 token 输出数量的限度,ERNIE SDK 提供了本地知识库检索的形式,使得解决大型文档问答工作更加不便。

2. 业务 API 工具的交融: ERNIE SDK 使集成现有业务 API 工具成为可能,拓宽了 LLM 利用的功能性和适应性。

3. 数据源连贯: ERNIE SDK 可能通过定制工具查问如 SQL 数据库,连贯多种数据源,为大模型提供更多的信息。其作为一个高效的开发框架,大幅晋升了开发者的工作效率。依靠飞桨星河社区的丰盛预制组件,开发者能够间接利用现有资源,或者依据特定业务需要进行定制,为 LLM 利用的整个开发生命周期提供全面反对。

基于 ERNIE SDK 的 Agent 架构剖析

Agent

在一些简单的场景下,咱们须要依据用户输出灵便调用 LLM 及一系列所需工具,Agent 为这样应用程序的实现提供了可能性。ERNIE SDK 提供基于文心大模型的 Function Calling 能力驱动的 Agent 开发,开发者能够间接应用预置 Agent,通过 Chat Model、Tool 和 Memory 进行实例化,也能够通过继承 erniebot_agent.agents.Agent 基类定制本人的 Agent。

Chat Model(Agent 的大脑)

ERNIE SDK 中的 Chat Model 模块是进行思考决策的外围调度器,也就是百度研发的常识加强大语言模型:文心大模型。

Message(Agent 输入输出信息封装)

开发者通过封装后的 Message 与 Chat Model 进行交互,可能让大语言模型了解输出的信息起源。

此模块使得用户输出与文心大模型的音讯回馈更加标准,以便在后续的 Memory 模块中进行存储。

Memory(Agent 的记忆)

大语言模型自身是没有记忆的,所以构建大模型利用很重要的一点就是给予 Agent 记忆性能。ERNIE SDK 提供疾速的记忆性能,可能将多轮对话当中的信息存入到一个 List 当中,而后传输到 Chat Model 的上下文窗口当中。不过,这种记忆模式也受限于文心大模型的输出 Token。同时,ERNIE SDK 也容许开发者构建更简单的记忆模块,可参考的解决办法有:

  1. Vector store-backed memory;每一轮对话的 Message 将会在 embedding 解决后存储至向量数据库当中,在后续的对话环境,依据用户输出的自然语言输出,进行语义向量近似检索找出最合乎输出语义的记忆片段。这样的形式可能实现长期记忆,不再受限于文心大模型的上下文窗口限度。
  2. Conversation summary memory;这种解决办法是在每轮对话后将对话信息调用 Chat Model 进行一次总结,并存储总结后的简短内容,从而加重存储内容的压力。
  3. LangChain/LlamaIndex;实现自定义记忆模块 ERNIE SDK 容许开发者自在集成 LlamaIndex 等框架,能够实现更简单的记忆模块,利用 LlamaIndex 优良的文档检索能力,可能做到更长期的记忆。

Tools(Agent 的工具)

让 Agent 自主组合并应用简单的内部工具来解决更简单的问题,是将来 AI 利用大规模遍及的要害;ERNIE SDK 容许开发者应用飞桨星河社区已上线的 30 余个工具,疾速构建简单利用,也可能依据本人的业务需要定制本地工具。

Retrieval(Agent 的知识库)

尽管通用大模型在训练过程中排汇了宽泛的常识,但它们对特定畛域或用户专有的业务知识理解无限。应用特定畛域数据对大模型进行微调的老本过高,因而引入 RAG(Retrieval Augmented Generation)技术,这一技术的外围是能迅速将内部知识库整合到大模型中,从而深刻了解特定畛域的专业知识。Retrieval 模块的要害性能包含:

  • 数据源加载,笼罩多种数据类型:

    结构化数据,如 SQL 和 Excel

    非结构化数据,如 PDF 和 PPT 文档

    半结构化数据,如 Notion 文档

  • 数据的分块转化。
  • 数据的向量化 embedding 解决。
  • 将解决后的数据存储到向量数据库中。
  • 通过近似向量检索,疾速定位相干信息。ERNIE SDK 的 Retrieval 模块不仅反对百度的文心百中搜寻,还与 LangChain 和 LlamaIndex 的 Retrieval 组件兼容,大幅晋升了数据处理的效率和准确性。

基于 ERNIE SDK 的 Agent 疾速开发体验

当初,让咱们一起疾速理解如何开发一个 Agent——文稿审核助手。这个 Agent 的次要性能是帮忙咱们审核各大平台上公布的文稿是否符合规范。

第一步,登录飞桨星河社区,并创立一个新的集体我的项目。应用社区提供的收费算力配置就足够了。

第二步,登录飞桨星河社区后,点击自己的头像,在控制台中获取本人的拜访令牌,飞桨为每个新注册的用户提供 100 万额度的收费 Token。

为了平安治理您的敏感令牌信息,咱们倡议应用 Dotenv。先装置 Dotenv,随后将您的令牌保留在一个新建的.env 文件中。留神,此文件默认在文件目录下是不可见的,若需查看,须要更改设置。

示例.env 文件内容:

第三步,验证您的拜访令牌是否能够失常应用:

如果一切正常,它会打印出您的拜访令牌。新建一个文本文件文稿.txt,其中需蕴含本人要进行合规审核的文本内容。

第四步,构建根底的 Agent(应用飞桨星河社区工具核心提供的预制工具)。

运行这段代码,您将看到 Agent 应用了 [text-moderation/v1.2/text_moderation] 工具来审核文稿内容,并输入审核后果。这样一来,一个简略的文稿审核助手的 Agent 开发就实现了。咱们一起体验了基于 ERNIE SDK 的 Agent 的疾速开发流程及其实用性。

多工具智能编排

继深度摸索 ERNIE SDK 后,咱们再来看看飞桨星河社区的多工具智能编排性能。飞桨星河社区不仅提供了细粒度的 SDK,以反对技术开发者的具体需要,还引入了多工具智能编排性能。这意味着开发者能够基于弱小的文心大模型,轻松整合各种内部工具,打造个性化的 AI 利用。相比起单纯应用 ERNIE SDK,这种办法更疾速、便捷,大大简化了开发过程。咱们将应用多工具智能编排复现文稿审核助手。

首先,应用低代码开发创立利用后,抉择智能编排。

其次,在侧边栏工具挂载中点击挂载“文本审核工具”,这是飞桨星河社区工具核心提供的 30 多个预制工具之一,你也能够创立本人的工具。

随后,在根底设定中对文稿助手进行角色身份设定。接着点击利用所有设置,就能够在侧边栏进行体验了。

值得一提的是,飞桨星河社区多工具智能编排对于非技术背景的团队成员极为敌对。即便没有深刻的编程常识,团队成员也能疾速上手,轻松构建本人的 AI 利用。如上述文稿助手的创立只须要几分钟,这不仅放慢了产品的迭代速度,还促成了团队外部的合作和翻新。

目前,百度飞桨曾经凋谢申请,拜访飞桨星河社区邀测报名理解更多详情和申请应用。

随着通用大语言模型的倒退和智能 Agent 技术的衰亡,咱们正迎来 AI 利用开发的新时代。从 ERNIE SDK 的深刻摸索,到飞桨星河社区多工具智能编排的利用,咱们看到像百度飞桨 ERNIE SDK 这样的 AI 技术框架如何冲破传统边界,为开发者提供了前所未有的便当和微小的倒退可能性。无论是有深厚技术背景的开发者还是非技术人员,都能在这个新时代中找到属于本人的空间,独特推动 AI 技术的提高及 AI 利用的遍及。AI 的将来,充斥有限后劲。AI 利用的广阔天地,等着咱们去摸索和发明。

正文完
 0