跳转到内容

LLM Agent节点

LLM Agent节点是FlowAI智能工作流中的核心组件,它可以在执行过程中自主选择和组合工具,以完成复杂的多步骤任务。全新版本的Agent已与workflow_worker的执行引擎全面打通,支持子工作流工具化、MCP扩展以及更丰富的内置工具能力。

核心升级亮点

  • 子工作流工具化:任意工作流都可注册为Agent工具。系统会自动生成唯一别名、同步名称与描述,并根据输入节点构建JSON Schema,确保提示词中按规范调用。
  • MCP集成增强:前端支持添加多种类型的MCP服务器(sse/streamable-http)并配置自定义Header,Worker会逐一校验所有MCP工具的JSON Schema并返回详细错误信息。
  • 内置工具扩展:新增Markdown转Excel、URL编码、Base64、哈希与时间工具,支持直接在提示词中组合使用。
  • 多语言与流式反馈:System Prompt会自动注入指定回答语言,执行期间会实时回传迭代轮次、推理过程、工具调用状态,便于监控Agent行为。

节点配置概览

节点属性

基础设置

  1. 节点名称:影响变量引用,例如:$LLMAgent1.result$智能助手.result。建议采用语义清晰的名称,便于团队协作。
  2. 模型选择:下拉列表整合官方模型与「我的模型」,并自动过滤掉不支持Function Calling的模型。可按任务在性能与成本间平衡选择。
  3. 提示词编辑区:支持变量注入、编写多步骤任务描述以及定义输出格式。

响应与执行控制

  • 输出语言:从前端选择后会写入System Prompt,Worker会提醒模型始终使用该语言输出最终答案。
  • 最大迭代轮数:控制Agent可以循环调用工具的次数,默认5次,上限50次。每一轮都可能包含多次工具调用与思考,超过限制会返回错误信息。

工具与集成

  • 内置工具选择:勾选后即可让Agent调用官方工具(见下文《内置工具能力》)。启用越多,模型尝试成本越高,可按需精简。
  • 联动工作流:点击“添加联动工作流”即可绑定其它工作流。前端会自动生成安全别名并展示输入字段;
  • MCP服务器:支持配置多个MCP端点,包含名称、类型、URL与自定义Header。Worker在connectMCPServer中会先校验 Schema,再尝试建立连接,失败时会返回逐项错误便于排查。

LLM Agent与LLM节点的区别

特性LLM Agent节点LLM节点
功能定位智能体,可自主决策并调用工具单次AI推理,生成文本内容
工具调用支持自动调用多种工具不支持工具调用
任务复杂度适合复杂、多步骤任务适合单一文本生成任务
自主性高,可根据任务自主选择工具低,严格按提示词执行
应用场景数据收集、分析、自动化处理内容生成、文本分析

提示词编写技巧

与LLM节点相比,LLM Agent的提示词更关注任务目标成功标准工具使用约束。当启用了联动工作流或MCP工具时,请在提示词中显式告知Agent工具用途和触发条件,例如:

当需要生成日报草稿时调用 report_generator 工具,传入 {"date": "$输入.日期"}。

基础语法示例

请帮我在 http://example.com 查询 "$输入.关键词" 的最新信息,并提供三条要点总结。

多步骤任务示例

请执行以下任务:
1. 调用 fetch_web 工具抓取 "$输入.股票代码" 的行情页面
2. 使用 calculator 计算过去 7 天的平均价格
3. 如果平均价格高于 $输入.阈值,则调用 http_call 向通知API发送告警

数据处理示例

请分析以下数据:$输入.数据表
要求:
1. 输出每列的平均值和标准差
2. 使用 md2xls 将 Markdown 表格转换为可下载的 XLSX 链接
3. 根据发现给出三条可执行建议

内置工具能力

当前版本已支持以下内置工具(详见workflow_worker/tools/tools.go):

  • fetch_web:抓取网页内容,返回正文与元数据,适合新闻/价格收集。
  • http_call:发起GET/POST/PUT/DELETE请求,可附带自定义Header与Body,常用于触发外部API。
  • calculator:执行复杂数学表达式,包括三角函数、对数与常量,适用于统计分析。
  • md2xls:将包含表格的Markdown内容转为可下载XLSX文件。
  • url_codec:对字符串进行URL编码或解码。
  • base64_codec:执行Base64编码/解码。
  • hash:计算md5/sha1/sha256哈希值。
  • now:按指定时区返回当前时间(RFC3339),便于时间戳记录。

联动工作流使用说明

  1. 在配置面板中点击“添加联动工作流”,选择目标工作流。
  2. 系统会基于工作流名称自动生成规范化别名(仅含小写、数字、下划线/中划线)。
  3. 前端展示的输入字段来自工作流输入节点,Worker会为其生成JSON Schema供LLM参考。

若子工作流执行失败,Agent会收到错误信息并可决定是否继续下一步操作。

MCP集成指南

mcp server config

  • 配置要求:每个MCP服务器需填写名称、URL与类型,只支持ssestreamable-http
  • Schema校验:Worker会在ValidateAllToolSchemas中逐一验证工具Schema,若存在错误,会汇总所有问题并返回,方便调整。
  • 执行回退:即便部分MCP服务器连接失败,系统也会继续执行其余可用工具,并在日志中给出Warning。
  • 认证处理:可在前端为每个MCP端点配置独立Header,例如Authorization或自定义Token。

执行流程与输出

  1. Worker在每轮迭代前会统计Token用量,必要时执行余额校验(官方模型会触发扣费检查)。
  2. Agent的推理、最终回答和工具调用过程会通过消息流回显:
    • Agent Round n指明当前迭代与可用工具列表
    • stream事件包含思考内容(reasoning)与输出片段(content
    • 工具调用前会输出Calling tool: ...并附参数
  3. 所有迭代结束后,最终结果写入$LLMAgent节点名称.result。若输出为合法JSON,系统会自动解析并存入上下文。
  4. 其他节点可直接引用$LLMAgent.alias.result$LLMAgent.alias.args获取子工作流数据。

常见应用场景

  • 数据收集与分析:组合网页抓取、计算器与md2xls快速生成报表。
  • 自动化客服与运营:根据用户咨询调用内部知识库工作流,再通过HTTP接口发送通知。
  • 内容聚合:通过MCP连接外部知识源,自动整理并输出多语言摘要。
  • 运维巡检:定时调用API获取监控指标,使用hash或calculator校验后触发告警。

使用建议与最佳实践

  1. 任务定义:清晰描述目标、成功标准与输出格式。复杂任务可拆解并使用有序列表。
  2. 工具选择:仅启用必要工具,避免让模型在无关能力上浪费Token。
  3. 性能优化:根据任务复杂度调整max_iterations,同时在提示词中限制不必要的探测步骤。
  4. 调试技巧:先用小样本测试,观察每轮回传的推理与工具调用,再逐步增加复杂度。
  5. MCP维护:定期核对Schema与认证配置,出现验证错误时优先处理相关工具。

通过合理配置与调优,LLM Agent节点可以帮助您构建高度自动化的智能工作流,大幅提升团队在数据处理、业务运营与集成方面的效率。更多关于变量语法的内容,请参阅变量语法指南