引言:当Deepseek遇见自动化,你的工作方式将被彻底改变,从ChatGPT到Deepseek大模型接入实战指南(附实战案例)。
该图是本章节的教程案例,通过触发器每天定时抓取RSS英文AI相关新闻,将新闻内容送给 AI (Deepseek) 要求AI对新闻内容进行分析总结,最后翻译成中文输出,通过邮件方式发送给用户。本章通过这个具体案例,教大家认识n8n中的核心框架和常用的AI节点,以及如何将AI大模型接入工作流逻辑的操作。由于内容新颖和丰富,分几个篇幅章节来一一介绍。
“你是否也曾被堆积如山的重复性工作压得喘不过气?是否在无数个深夜,对着电脑屏幕,做着机械性的复制粘贴?今天要告诉你:这样的日子即将成为过去。
想象一下,当你还在为整理数据焦头烂额时,你的同事已经通过AI自动任务工作流完成了所有任务,正在悠闲地喝着咖啡。这不是科幻电影,而是正在发生的现实。通过n8n和AI的完美结合,你也可以成为那个"喝着咖啡完成工作"的人。” 请允许我也YY一下:)
无论你是AI新手,还是想要提升业务智能化水平的专业人士,
n8n安装教程,一键打造免费开源的AI自动化工具
这篇文章都将为你揭开n8n与AI结合的神秘面纱。
为什么要在n8n中集成AI服务?
2025年开始,人工智能(AI)正在以惊人的速度改变着各行各业。从智能客服、推荐系统到营销运营,AI将在企业每个业务环节中无处不在。而对于自动化工作流而言,集成AI服务意味着流程不再仅仅是机械地执行预设任务,而是具备了“思考”和“判断”的能力 。
1. 提升决策能力
通过引入AI,工作流可以根据复杂的数据分析和模型预测,自动做出决策。例如,根据客户的行为数据,自动调整营销策略,提高转化率。
2. 处理非结构化数据
AI擅长处理非结构化数据,如文本、图像、语音等。集成AI服务后,工作流可以自动分析客户反馈、识别图片内容、转换语音文本等,拓展了自动化的应用范围。
3. 自我学习和优化
借助机器学习,工作流可以根据历史数据不断优化自身,变得越来越智能。例如,邮件分类系统可以通过学习,不断提高垃圾邮件的识别准确率。
为什么你需要这个AI自动化任务工作流?
1. 时间就是金钱,效率就是生命
在快节奏的职场中,谁能更快地处理信息,谁就能抢占先机。传统的工作方式已经无法满足现代商业的需求,而Deepseek赋能的自动化工作流,就是你的效率加速器。
2. 告别重复劳动,专注创造价值
让我们面对现实:整理数据、填写表格、发送邮件这些重复性工作,不仅枯燥乏味,还容易出错。把这些工作交给Deepseek自动化任务工作流,你可以把时间用在更有价值的事情上。
3. 7×24小时不间断工作
你的自动化任务工作流助手不需要休息,不会请假,永远保持最佳状态。想象一下,当你清晨醒来,所有的工作报告已经整整齐齐地躺在你的邮箱里。
n8n常见AI节点介绍
在开始集成之前,我们需要了解一些常见的AI节点服务。这些服务通常提供丰富的AI功能,且易于集成。
什么是Advaced AI ?
在n8n中“Advaced AI“ 是专门为工作流配套AI大模型的特殊节点(node),它下面有多种不同的AI组件。本章节,会详细介绍两个最常用的 AI节点,让你掌握Deepseek在 n8n 中的接入逻辑。
大部分的 n8n AI 节点都在介绍里写明了自己的用处是什么,你还可以点击“Advaced AI“ 下面的 AI Templates 菜单从官方社区复制别人已经做好的模版。
点击“Advaced AI“ 进入AI节点列表,如下:
为了方便大家认识这些节点,我把中文解释放上来。其中,“AI Agent(人工智能代理)”节点是我们最常用的。如果你有ChatGPT官方账号和API-Key那么就能在工作流中用“Open AI”节点来帮你处理问题。本文主要教大家如何在n8n自动化任务中接入和使用中国的官方Deepseek-v3模型。
可以看到“Advaced AI“ 下面包含对AI主要操作的类别可以使用的节点,这些节点可以单独也可以组合使用处理更加复杂的业务流程。其中,最常用的是 AI Agent、OpenAI,本例教程中也重点介绍这两个节点的使用。其他节点在后面的章节中介绍。
AI AIgent节点介绍
什么是 AI Agent?
n8n AI Agent 是一个利用大型语言模型(LLMs,如 GPT、Deepseek 等)来设计和构建智能体(Agents)的框架工具。是一种特殊的大语言模型接口,专门为了将大语言模型接入 n8n 而设计,使得我们在创建工作流时可以方便的使用不同的大语言模型进行各种任务,无需关心模型之间的差异性。多个AI Agent组合在一起能够执行一系列复杂的任务,例如理解指令、模仿类人的推理能力,以及从用户的命令中捕捉隐含的意图。n8n AI Agent 的核心在于通过构建一系列提示(Prompts),让大型语言模型能够模拟出自主行为,从而实现智能化的任务处理。
AI Agent 节点概览
在工作流画布左上角点击+号弹窗搜索节点,这里弹窗打开可以看到“Advanced Al”这个选项,继续点击进入二级列表,在“Advanced Al”下面列出所有和AI相关的节点。第一个节点就是AI Agent,它是我们制作AI自动化任务的核心节点。
本例中AI Agent的作为对接大模型核心组件的位置
AI Agent 节点,可以被视为 Basic LLM Chain节点的高级版本,它完全释放了 LangChain 的功能,我们可以在AI Agent 上面挂载更多子节点。 它和 Basic LLM Chain 的主要区别,是多了几个可以插入子节点的卡槽。并且,外部的这些卡槽还会随着内部参数设置的变化而变化。
提到Basic LLM Chain节点顺便简单介绍一下“Basic LLM Chain”节点,在 n8n 中,"Basic LLM Chain" 节点是用于连接大语言模型的最简单节点。它不适合用来做 Agent(代理),也不太适合用来做AI对话。“Basic LLM Chain”适合那种做一次性的文本处理与判断。比如:文本总结、文本摘要、语法纠正、文本分类等。
Basic LLM Chain的节点内逻辑非常简单:从上游节点获取数据、将参数设置中的 Prompt(提示词) 和数据一同提交给 LLM API、从 API 获得 LLM 返回的结果。本章“Basic LLM Chain”不是我们介绍的重点,我们在后续章节会再介绍。
AI Agent 参数
看一下"AI Agent"节点需要设置哪些主要参数,双击"AI Agent"节点打开节点设置面板。
1. Aengt参数
Aengt参数它主要是让你选择究竟需要让 AI 来帮你完成什么任务。目前, n8n 的 AI Agent 支持以下类型的任务:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1.1. Memory子节点(插座)
在 n8n 的 AI Agent 节点中Memory插座是可选的,非必填。部分任务类型支持使用 Memory 插座。Memory插座子节点的作用是为 AI 提供上下文记忆功能,帮助 AI 记住之前的对话或任务信息,从而更好地理解当前任务并做出更准确的响应。Memory插座子节点支持两种类型的记忆:
一次性记忆:仅在当前会话中有效,会话结束后记忆会消失。
永久记忆:可以长期保存,即使会话结束或系统重启,记忆仍然存在。
Memory插座子节点支持多种记忆服务,每种服务都有其独特的特点和适用场景。下面我们将详细介绍这些记忆服务,帮助你选择最适合的方案。
Memory插座子节点支持多种存储对象
1. Window Buffer Memory(浏览器窗口缓存记忆)
介绍:浏览器窗口缓存记忆,顾名思义,你不需要部署任何额外的服务,直接把对话的上下文存在浏览器窗口里。但缺点也很明显:刷新就消失了,不能永久保存。
特点:主打一个方便,将AI对话的上下文内容直接存储在浏览器窗口中。无需部署任何额外的服务,开箱即用。
优点:简单易用,适合快速测试和小规模场景。
缺点:记忆是临时的,浏览器窗口刷新后记忆会消失。不支持多设备或多会话共享记忆。
适用场景:临时测试或单次会话任务。不需要长期保存记忆的简单场景。
2. Redis Chat Memory(Redis 缓存记忆)
介绍:将聊天记录存储在服务器的 Redis 缓存服务器里,可以在刷新刘篮球窗口后找回之前的记忆,但这也是短时记忆,因为 Redis 会根据设置在指定的时间后清空缓存。
特点:将聊天记录或任务上下文存储在 Redis 缓存服务器中。支持在浏览器刷新后找回之前的记忆。
优点:记忆可以跨会话保存,适合短期记忆需求。Redis 是一个高性能的内存数据库,响应速度快。
缺点:记忆仍然是短期的,Redis 会根据配置在一定时间后自动清空缓存。需要自行部署和维护 Redis 服务器。
适用场景:需要短期记忆支持的场景,例如多轮对话或短期任务。适合有一定技术能力,能够部署 Redis 的用户。
3. Motorhead(开源记忆服务)
介绍:一个专门为 AI 打造的开源记忆服务,它能简单的帮助 AI 服务存储、向量化和检索记忆,有开源版本。
特点:一个专门为 AI 设计的开源记忆服务。支持记忆的存储、向量化和检索。
优点:开源免费,可以自行部署和定制。支持长期记忆,适合复杂任务和多轮对话。提供向量化功能,能够更高效地检索记忆。
缺点:需要自行部署和维护服务。对技术能力有一定要求。
适用场景:需要长期记忆支持的复杂任务。适合有技术能力且希望完全控制记忆服务的用户。
4. Xata(无服务器数据检索系统)
介绍:一个专门为 AI 打造的无服务器数据检索系统,它不开源,付费可用,无需部署。相当于你在别人的云服务里买了个可直接连接的数据库,填写授权即可存储、处理、读取数据。
特点:一个专门为 AI 设计的无服务器数据检索系统。无需部署,直接通过云服务使用。
优点:开箱即用,无需维护服务器。支持长期记忆,数据可以永久保存。提供强大的数据检索和处理能力。
缺点:不开源,需要付费使用。依赖第三方云服务,可能存在数据隐私问题。
适用场景:需要长期记忆且不希望自行部署服务的用户。适合中小型企业或对数据检索有较高要求的场景。
5. Zep(长期记忆服务)
介绍:和 Xata 差不多,专门为 AI 打造的长期记忆产品,不开源,要付费,免部署。
特点:另一个专门为 AI 设计的长期记忆服务。支持记忆的存储、检索和管理。
优点:无需部署,直接通过云服务使用。支持长期记忆,适合复杂任务和多轮对话。提供高效的记忆检索功能。
缺点:不开源,需要付费使用。依赖第三方服务,可能存在数据隐私问题。
适用场景:需要长期记忆且不希望自行部署服务的用户。适合对记忆管理有较高要求的场景。
6. Postgres(开源数据库)
介绍:n8n 新版新增了对 Postgres Memory 的支持,这是一个重要的功能扩展,为用户提供了更多灵活和强大的记忆存储选项。Postgres Memory 允许你将 AI Agent 的上下文记忆存储在 PostgreSQL 数据库中,从而实现更稳定、更可靠的长期记忆管理。
Postgres Memory 的优势:
数据持久化:记忆数据可以长期保存,适合需要历史记录的场景。
例如,在多轮对话中,AI Agent 可以根据之前的对话内容提供更准确的响应。
高可用性:PostgreSQL 支持主从复制和故障转移,确保记忆服务的高可用性。即使数据库服务器出现故障,也可以通过备份快速恢复数据。
灵活集成:可以与其他系统或工具无缝集成,例如将记忆数据与业务系统结合使用。支持通过 API 或 SQL 直接访问记忆数据。
成本效益:开源免费,无需支付额外的服务费用。适合中小型企业和个人开发者。
Postgres Memory 的适用场景:
多轮对话系统:在智能客服或聊天机器人中,保存用户的对话历史,提供更连贯的交互体验。
长期任务管理:在复杂的自动化任务中,保存任务状态和历史记录,支持任务的断点续传。
数据分析与报告:保存历史数据,用于生成趋势分析报告或业务洞察。
个性化推荐:根据用户的历史行为数据,提供个性化的推荐或服务。
跨会话记忆共享:在多个会话或设备之间共享记忆数据,实现无缝的用户体验。
如何选择适合的Memory?
临时记忆需求:如果只需要在单次会话中保存记忆,可以选择 Window Buffer Memory。如果需要短期记忆支持,可以选择 Redis Chat Memory。
长期记忆需求:如果需要长期记忆且希望开源免费,可以选择Postgres或 Motorhead。
技术能力:如果有技术能力且希望完全控制记忆服务,可选择Postgres或Redis
如果希望简单易用且无需维护,可以选择 Xata 或 Zep。
推荐使用Postgres或者Redis
1.2. Tool子节点(插座)
tool子节点是可选的,tool有什么用呢?使用tool节点后所有向AI发出的请求都会经过tool节点,不是所有 AI Agent 节点都支持使用 Tool子节点,部分支持,tool子节点主要用来执行非 AI 任务,比如:谷歌邮箱、谷歌日历、计算器、互联网搜索等等。
重点介绍 Call n8n Workflow Tool 这个节点,它是比较重要的tool节点
我们可以将其他的工作流当作一个tool来调用,这意味着我们可以随时接入或调用别人做好的单独工作流,就像搭积木的形式随意给我们现在工作流增加扩展能力。
对于国内用户来说,Call n8n Workflow Tool 是一个非常实用的工具。由于 n8n 本身主要面向海外市场,它在连接国内平台和服务方面存在一些局限性。例如,n8n 原生并不支持直接调用百度搜索、向飞书推送消息等常见的国内应用场景。而 Custom n8n Workflow Tool 的出现,完美解决了这一问题。
那它是如何工作的?
Call n8n Workflow Tool 允许你将另一个自定义的 Workflow 作为一个工具来调用。这意味着你可以先创建一个专门用于特定任务的 Workflow(例如“通过 Webhook 向飞书发送消息”),然后将其与 AI 节点或其他工作流节点连接起来。通过这种方式,你可以轻松扩展 n8n 的功能,使其支持更多国内平台和服务。关于Call n8n Workflow Tool 调用其他工作流的操作后面的章节我会专门讲解。
其他AI子节点介绍
OpenAI ChatGPT
OpenAI提供了强大的语言模型,如GPT系列,可以用于文本生成、翻译、问答等任务。通过调用OpenAI的API,你的工作流可以自动完成文章撰写、客户回复等工作。
Google Gemini
Google的AI服务涵盖了机器学习、自然语言处理、图像识别等多个领域。使用Google Cloud的AI API,可以实现语音识别、情感分析、文字提取等功能。
Mate Ollama
Ollama允许我们调用脸书开源的llama大模型。
Microsoft Azure OpenAI
微软的Azure AI服务提供了机器学习平台、认知服务等,支持多种编程语言和框架,方便开发者集成。
Anthropic Claude
使用 Anthropic 的 Claude 系列大模型。
Google Vertex
Vertex AI 是一个机器学习(ML) 平台,可让您训练和部署机器学习模型和AI 应用,以及自定义大型语言模型(LLM),以在AI 驱动的应用中使用。 Vertex AI 结合了数据工程、数据科学和机器学习工程工作流,使您的团队能够使用通用工具集进行协作,并利用Google Cloud 的优势扩展应用。
Groq AI
ChatGroq是一种能够进行语言翻译、问答等任务的强大模型,支持JSON模式、令牌级流处理和原生异步调用等功能。
Mistral AI
Mistral AI是一家来自法国的人工智能创业公司,由前Meta和DeepMind的研究员创立,主要开发基于自然语言处理、机器视觉和深度学习的人工智能技术,其中自然语言生成技术是他们的主打业务。他们于今年6月份获得了113亿美元的种子轮融资,公司的愿景是创建一个开放、可靠、高效、可扩展、可解释和可审计的人工智能平台。
在n8n中集成AI服务的步骤
下面,我以Deepseek-v3模型为例,演示如何在n8n中集成AI服务,让工作流具备智能生成的能力。n8n中我们有好几个方法可以调用Deepseek在本案例中介绍一种最简单的方法。使用ChatGPT节点来调用Deepseek,因为Deepseek的API绝大部分参数和逻辑都兼容ChatGPT的API调用逻辑。
步骤1:搜索ChatGPT节点,将它拖到流程画布上。
将它与AI Agent进行连接。
步骤2:设置Deepseek参数
首先,需要在Deepseek官网上注册一个账号,并生成用于调用API的密钥(API-Key)。双击“OpenAI Chat Model”,我们来设置Deepseek参数。
Credential to connect with 项,点击下拉选择“Create New Credential”,填写DeepseekAPI-Key,最后点击“保存”按钮,关闭弹窗。
设置Deepseek API调用的网址,先点击添加操作按钮。
下来选择“Base URL”,填入Deepseek API URL。
填写完毕之后,稍微等几秒钟,n8n会验证API-key会去连接Deepseek,如果正常连通,就可以在model项中选择Deepseek的模型名,我们选择"Deepseek Chat".到此Deepseek模型就完成设置可以在工作流中通过调用Deepseek API来获得AI的能力了。
步骤3:测试节点
配置完成后,可以点击“Test workflow”测试整个工作流节点是否工作正常。如果配置正确,你将获得AI生成的内容输出。
到此为止,通过配置将ChatGPT节点变成Deepseek API的调用节点的操作方法就讲完,不复杂吧!其实,很简单。还有一个非常重要的节点配置还没有讲就是AI Agent节点,与Deepseek对话的提示词是在AI Agent节点中配置,我们将在下一章节详细介绍。
发表评论 取消回复