AI 智能体通过转变业务运营、自动执行复杂任务和解锁新的效率,正在彻底改变数字员工队伍。借助协作能力,这些智能体现在可以协同工作,解决复杂问题并产生更大的影响。
NVIDIA NeMo Agent 工具套件是一个开源库,可简化智能体的集成,而无需考虑其构建框架。此工具包允许开发者创建一个统一的环境,以便轻松组合和重复使用不同的数据源和工具。UI 和集成开发环境 (IDE) 集成为开发者提供了用户友好型界面,使管理和部署智能体变得更加容易。
在本视频中,我们将向您介绍如何使用开源库构建自定义 AI 智能体,从而推理复杂问题并从多个来源提取信息。
注意:NVIDIA Agent Intelligence Toolkit (AIQ) 最近更名为 NVIDIA NeMo Agent Toolkit。核心技术、性能和路线图保持不变。
您将学习使用此工具包构建自定义 AI agents 的步骤,包括:
- 使用支架实用程序设置项目:要开始使用 NVIDIA NeMo Agent 工具包,您可以使用工作流 create 命令生成项目支架。此命令提供一个 pyproject.toml 文件,用于指定将成为插件的所有部分,以及一个 config.yaml 文件,用于定义代理的组件。该工具包提供了托管智能体的灵活方式,包括作为 MCP 服务器和 FastAPI 微服务。本视频演示了 FastAPI 选项的使用,允许您发出 POST 请求以调用代理。此微服务可配置为使用特定的 LLM 和嵌入模型,这对 RAG 工具至关重要。
- 创建多 RAG 智能体:了解创建多 RAG 智能体的过程,这是一个可以访问多个 RAG 的智能体,以推理问题并绘制必要信息。RAG 是可以在本地或远程托管的工具,它们在 config.yaml 文件的功能部分中定义。例如,该视频展示了为着装要求、工资单和 PTO 政策创建 RAG 的过程。这些 RAG 使用相同的底层插件实施,但参数不同,展示了工具包的灵活性。
- 实例化和配置 ReAct 智能体:要实现自定义智能体,视频将介绍必要的导入和配置。为智能体提供了一个工具列表、一个 LLM 客户端和一个提示。LLM 客户端与远程 LLM 通信,并使用提示来指导智能体的响应。然后,设置代理执行程序来管理代理的交互,包括处理聊天记录和最近的消息。此设置可确保智能体能够有效使用 RAG 工具来提供准确的上下文感知响应。
- 设置 FastAPI 微服务:此过程的最后一步是设置 FastAPI 微服务。此微服务充当调用 agent 的主要入口点。系统会更新配置文件以匹配定义为入口点的新函数,并使用 toolkit info components 命令行实用程序确保正确指定必要的参数。然后启动微服务,智能体准备好通过调用 RAG 工具来响应用户查询。
通过观看此新操作视频或在 GitHub 上下载,开始使用 NVIDIA NeMo Agent 工具包。