企业级智能体dify:不需要编程
文章目录
https://github.com/wyh0626/resumeFilter
v1: 案例学习/源码学习 v2:服务个人产生适用记录 v3:文章变成视频让大家使用
一、需求分析 :
我们正在尝试打造一个 求职者 与 招聘方 之间精准高效的连接通道。
基于Github Issue打造的完全透明的求职和招聘平台, 完全透明, 完全公开
-
求职者:如果你认为自己足够优秀,不妨带着你的简历/博客/开源贡献来这里寻找优秀的工作机会。
-
招聘方:如果你认为你的产品/工作岗位拥有动人的产品力,不妨带上你的jd来这里会一会各路英豪
📋 提示词 (Prompts)
我们提供了多个版本的提示词,以适应不同场景的需求。
类型 | 语言 | 描述 / 区别 | 文件链接 |
---|---|---|---|
简历评估 | 🇨🇳 中文 | 简历警察:核心提示词,用于全面审查和修改简历,采用“批判-解析-建议”模型。 | resume_police_Zh.md |
面试问题生成 | 🇨🇳 中文 | 面试官视角 V1: 传奇CTO人设,采用四步勘探法和P.O.S.E.R.模型,生成体系化、带陷阱的深度面试问题。 | question_v1_Zh.md |
面试问题生成 | 🇨🇳 中文 | 面试官视角 V2: 传奇CTO人设,采用三步勘探法,风格更直接,产出更精简的面试问题清单。 | question_v2_Zh.md |
🔧 Dify 工作流 (Workflows) 与使用方法
为了方便在 Dify 平台使用,我们提供了以下工作流文件。
版本 | 主要特点 | 文件链接 |
---|---|---|
简历警察 | 早期版本,基础工作流。 | 简历警察.yml |
简历警察 V2 | 优化了提示词和流程的版本。 | 简历警察V2.yml |
简历警察 V3 | (推荐) 当前最稳定的文本生成工作流,内置了最新的简历警察提示词。 | 简历警察V3.yml |
简历警察 Chat | (推荐) 对话式工作流,支持与简历警察进行多轮对话,进行追问和修改。 | 简历警察Chat.yml |
简历警察(笔录版)V1 | 对应 面试官视角 V1 提示词,用于生成深度面试问题的文本生成工作流。 | 简历警察(笔录版)V1.yml |
简历警察(笔录版)V2 | 对应 面试官视角 V2 提示词,用于生成精简面试问题清单的文本生成工作流。 | 简历警察(笔录版)V2.yml |
🎯 核心理念
简历警察采用"批判-解析-建议"三位一体模型:
- ❓ 批判 - 直接指出问题
- 🤔 解析 - 解释负面影响
- 💡 建议 - 提供具体方案
二、 最少知识
2.1 Dify入门系列(1)部署 Dify:云服务 vs 本地 Docker
step1 请你做出选择,因为自己家里环境,公司环境,mac 和 Windows 环境来回切换,自己选择云服务
如果后面有机会在本地部署
访问 [Dify] 官网 https://cloud.dify.ai/app
→ 点击「免费开始」→ 用邮箱/GitHub 账号注册 2 分钟完成
step2:了解什么应用
你可以通过 3 种方式在 Dify 的工作室内创建应用:
- 基于应用模板创建(新手推荐)
- 创建一个空白应用
- 通过 DSL 文件(本地/在线)创建应用
Dify 上可以创建 5 种不同的应用类型, 分别是
-
聊天助手
对话型应用采用一问一答模式与用户持续对话。
适用场景
对话型应用可以用在客户服务、在线教育、医疗保健、金融服务等领域。
这些应用可以帮助组织提高工作效率、减少人工成本和提供更好的用户体验
-
文本生成应用
-
Agent 智能助手(Agent Assistant),利用大语言模型的推理能力, 能够自主对复杂的人类任务进行目标规划、任务拆解、工具调用、过程迭代, 并在没有人类干预的情况下完成任务 【不懂有什么区别】
-
Chatflow:面向对话类情景,包括客户服务、语义搜索、以及其他需要在构建响应时进行多步逻辑的对话式应用程序。 【不懂】
-
Workflow:面向自动化和批处理情景,适合高质量翻译、数据分析、内容生成、电子邮件自动化等应用程序。
参考官方文档:https://docs.dify.ai/zh-hans/guides/workflow/readme
2.2 基本概念
1. 变量
2. 文档提取器
- 官方资料:https://docs.dify.ai/zh-hans/guides/workflow/node/doc-extractor
定义
LLM 自身无法直接读取或解释文档的内容。因此需要将用户上传的文档,通过文档提取器节点解析并读取文档文件中的信息,转化文本之后再将内容传给 LLM 以实现对于文件内容的处理。
应用场景
- 构建能够与文件进行互动的 LLM 应用,例如 ChatPDF 或 ChatWord;
- 分析并检查用户上传的文件内容;
输入变量
文档提取器仅接受以下数据结构的变量:
File
,单独一个文件Array[File]
,多个文件
文档提取器仅能够提取文档类型文件中的信息,例如 TXT、Markdown、PDF、HTML、DOCX 格式文件的内容,无法处理图片、音频、视频等格式文件。
输出变量
输出变量固定命名为 text。输出的变量类型取决于输入变量:
- 输入变量为
File
,输出变量为string
- 输入变量为
Array[File]
,输出变量为array[string]
Array 数组变量一般需配合列表操作节点使用,详细说明请参考
3 # LLM
定义
调用大语言模型的能力,处理用户在 “开始” 节点中输入的信息(自然语言、上传的文件或图片),给出有效的回应信息。
应用场景
LLM 节点是 Chatflow/Workflow 的核心节点。该节点能够利用大语言模型的对话/生成/分类/处理等能力,根据给定的提示词处理广泛的任务类型,并能够在工作流的不同环节使用。
- 意图识别,在客服对话情景中,对用户问题进行意图识别和分类,导向下游不同的流程。
- 文本生成,在文章生成情景中,作为内容生成的节点,根据主题、关键词生成符合的文本内容。
- 内容分类,在邮件批处理情景中,对邮件的类型进行自动化分类,如咨询/投诉/垃圾邮件。
- 文本转换,在文本翻译情景中,将用户提供的文本内容翻译成指定语言。
- 代码生成,在辅助编程情景中,根据用户的要求生成指定的业务代码,编写测试用例。
- RAG,在知识库问答情景中,将检索到的相关知识和用户问题重新组织回复问题。
- 图片理解,使用 vision 能力的多模态模型,能对图像内的信息进行理解和问答。
选择合适的模型,编写提示词,你可以在 Chatflow/Workflow 中构建出强大、可靠的解决方案
通义千问: