n8n 自动化与系统编排指南 · Dylan AI Agent Nexus
Event-driven Workflows for AI + Enterprise Integration
定位与价值
n8n 是可自托管的自动化与集成平台,提供节点化工作流、可视化编排与定时/事件触发。它能把我们的本地 AI 服务(LLM、RAG、ComfyUI、Ollama)与企业系统(数据库、HTTP API、邮件、消息队列)串联,构建端到端业务自动化链路。
核心概念
- 触发器(Trigger):定时(Cron)、Webhook、队列/事件、文件/表变化等。
- 节点(Node):HTTP Request、Function/Code、数据库、Email、消息平台、LLM/向量服务等。
- 执行(Run):工作流以节点为有向图串联,支持条件分支、错误处理与重试。
- 凭据(Credentials):集中管理外部系统访问密钥、令牌与连接信息。
- 变量与上下文:每个节点输入输出均可映射,支持表达式与批处理。
AI 集成的典型模式
- 内容生产:定时触发 → 拉取话题 → 调用 LLM 生成草稿 → 审核 → 发布到 CMS。
- 知识问答:Webhook 接收问题 → 向量检索(RAG)→ LLM 生成答案 → 记录审计。
- 工单自动化:事件触发 → 分类/摘要 → 生成回复草稿 → 人工确认后发送。
- 图像工作流:接收素材 → 调用 ComfyUI 渲染 → 上传媒资库 → 通知审核群。
Webhook 与 HTTP 节点
- Webhook:创建入站 URL,配置 POST 接收 JSON 载荷;用 Response 节点返回处理结果。
- HTTP Request:调用外部/内部 API,支持方法/头/鉴权/分页/重试。
- 签名校验:结合 HMAC 头校验来源,防止重放与伪造。
{"event":"ask","user_id":123,"content":"请基于内部知识回答:数据主权的核心要点?"}
示例为入站 JSON 结构,后续在工作流中映射至向量检索与 LLM 节点。
与本平台的协同
最佳实践
- 凭据治理:统一使用 Credentials;按环境(Dev/Stage/Prod)分离并定期轮换。
- 数据最小化:仅传递任务必要字段;敏感信息脱敏或加密。
- 错误与重试:给关键节点配置重试与退避;使用失败分支捕获异常并告警。
- 可观察性:为每次运行打上追踪 ID;记录延迟、错误码、Token 消耗等指标。
- 幂等性:对写操作使用幂等键(如事件 ID);避免重复执行副作用。
部署与安全
- 容器化:推荐使用 Docker/Compose 部署,限定端口与网络边界。
- 访问控制:在内网或零信任网段运行;外网入口置于反向代理并启用鉴权/TLS。
- 备份与迁移:备份工作流与凭据;版本化导出 JSON。
示例片段
以下为对接本地 LLM 服务的单行请求示例(Windows 可直接复制粘贴)。
curl -X POST http://localhost:11434/api/chat -H "Content-Type: application/json" -d "{\"model\":\"llama3\",\"messages\":[{\"role\":\"user\",\"content\":\"给我3条企业数据主权核心要点\"}],\"stream\":false}"
可在 n8n 的 HTTP Request 节点中将 Body 模式设为 Raw JSON,并用表达式注入上游节点的变量。
故障排查(思路)
- Webhook 无响应:核对 URL、方法与鉴权;检查入站防火墙与反向代理转发。
- 调用失败:查看节点执行日志与上游变量映射;检查速率限制与超时设置。
- 数据错位:用测试数据运行与执行快照定位字段映射错误。