在大模型LLM的应用开发中提示词Prompt和知识库Knowledge Base / RAG是决定模型输出质量的两个核心要素。如果把大模型比作一个“极其聪明但没有长期记忆的专家”那么提示词就是你对他的工作指令而知识库则是你塞给他的参考资料。一、 提示词 (Prompt)提示词是你输入给大模型的文本用来指导它如何思考和输出。好的提示词能够挖掘出大模型更深层的推理能力。1. 提示词的核心构成要素一个结构严谨的生产级提示词通常包含以下部分角色 (Role/Persona)赋予模型一个身份。例如“你是一个资深的软件架构师…”任务 (Task)清晰定义需要解决的问题。例如“请审查以下代码的安全性…”上下文 (Context)提供必要的背景信息。约束条件 (Constraints)限制输出范围。例如“只能用中文回答”、“回答不要超过200字…”输出格式 (Format)指定返回的结构。例如“请用 Markdown 表格返回结果”2. 常用提示词高级技巧Few-Shot (少样本提示)在提示词里给模型提供 1~2 个“输入-输出”的正确示例模型会模仿示例的风格和逻辑进行回答。CoT (思维链提示)在提示词中加入“请一步步思考”促使模型把复杂的推理过程写出来能显著提高数学、逻辑题的准确率。二、 知识库 (Knowledge Base / RAG)大模型虽然聪明但它有两个致命弱点有知识盲区不知道企业内部数据或最新资讯和会胡说八道幻觉。知识库就是为了解决这两个问题而存在的。在技术上围绕知识库构建的应用通常被称为RAG检索增强生成Retrieval-Augmented Generation。1. 知识库的工作原理当用户提问时系统并不是直接把问题丢给大模型而是经历以下三步检索 (Retrieve)系统先去你的知识库PDF、Word、网页等文档里把与用户问题最相关的几个片段Chunk找出来。增强 (Augment)把这几段找出来的“参考资料”和用户的“原始问题”拼接在一起组装成一个临时的、信息丰富的提示词。生成 (Generate)大模型阅读这些参考资料然后基于资料回答用户的问题。2. 为什么需要知识库消除幻觉强迫大模型“照书上说的答”不知道的就说不知道不再瞎编。数据私密无需将企业敏感数据拿去重新训练/微调大模型数据只在本地或专属向量数据库中检索。低成本更新如果业务数据变了只需更新知识库文档即可无需花费高昂的代价去训练模型。三、 两者的协同关系在 Dify、LangChain 等 AI 应用开发平台上提示词和知识库是相辅相成的维度提示词 (Prompt)知识库 (Knowledge Base)扮演角色决定模型的**“灵魂与行为”**语气、逻辑、格式、流程控制提供模型的**“粮仓与子弹”**专业事实、业务数据、特定文档解决问题怎么说How to say说什么What to say典型应用规定模型“你必须用温柔的语气、以表格形式回答…”告诉模型“关于我们公司的退换货政策具体条款在《2026版售后手册.pdf》里…”四在Dify中的使用1.创建知识库在Dify中点击知识库按钮可以直接新建一个知识库。数据源通常选择导入已有文本。你可以让ai随便生成一个文件比如通用测试知识库文档。然后导入。以下是有关知识库参数的相关说明。环节参数简化说明分段设置如何拆分文档分段标识符遇到什么符号如空行\n\n就切开避免乱切分段最大长度每个文本块的最大字数超了就强制切断分段重叠长度相邻块之间保留几个字防止断句丢上下文文本预处理自动清理多余空格、换行或把 FAQ 的问答打包成一块索引方式如何存储与理解通用分段 vs 父子分段普通切块 vs 先切小块搜再给大块内容兼顾精确和完整高质量 vs 经济索引语义理解推荐 vs 纯关键词匹配CtrlFEmbedding 模型把文字转成语义向量的模型决定了“懂不懂人话”检索设置如何找出答案检索模式向量语义、全文关键词、混合两者结合推荐Rerank 模型对初步召回结果二次排序把最相关的放前面Top K最终喂给大模型的文本块数量越大越全但越贵Score 阈值设置相关度及格线低于此分的直接扔掉我们还可以在旁边的窗口看到文档经过这些处理之后的样子。等待它处理完之后我们可以在工作室新建一个新手适用的聊天助手。在知识库一栏就可以导入我们刚刚的知识库。再问的时候Dify 等系统会把用户的问题转化为向量然后去你之前建好的知识库里搜索最相关的文档片段Chunk。系统会在后台把用户的问题和刚刚捞出来的参考资料像拼积木一样拼进一个预设好的模板Prompt里变成一个长段落。系统再把这组装好的长文本整体发送给大模型如 Llama、Qwen 等。最后再由大模型来整理最终回答对它来说就是看书作答有关ai幻觉的问题就会减轻很多。在这里点击提示词窗口右上角的生成还可以根据我们的简略的提示词来生成更好的提示词。