在前几章中,我们系统性地介绍了提示词工程的相关技术。本章将开发一个基于大语言模型(LLM)的提示词优化工具,该工具不仅能自动优化用户输入的提示词,其自身的设计也是提示词技术的一个实际应用案例。
Prompt(七)-自动生成
在【大语言模型 LLM 之提示词 Prompt(三)--技术】一文中,我们提到可以使用LLM自动生成提示词,本文就开发一个利用LLM工具DIFY来生成提示词的应用,供大家参考。
在学习使用AI过程中遇到第一困难就是不会写提示词。复杂的提示词语法也记不住,本文就使用dify工作流利用AI辅助能力实现一个提示词优化器功能。
1、实现步骤
1.1 新建工作流
dify工作台,新建一个chatflow工作流。
1.2 设置提示词类型
在开始步骤,建立一个下拉选项的参数,参数名称为:prompttype,共五个选项选项:通用提示词优化、通用提示词优化-带输出格式要求、带建议优化、指令性优化、迭代提示词优化
1.3 条件分支
考虑提示词需要适配各种类型,我们这里大致分5种(通用提示词优化、通用提示词优化-带输出格式要求、带建议优化、指令性优化、迭代提示词优化)
在工作流中增加一个条件分支,根据prompttype进行判断,不同在promptype转向不同的LLM处理节点。每次条件设置为等于。
1.4 提示词优化
利用大语言模型对用户输入的提示词进行扩写。根据条件需要设置5个LLM提示词。
使用的LLM模型可以根据自己模型的配置情况选择,但建议选择在线的模型,在处理这些通用问题上,其能力应该超本地部署的相对较小的模型。此次我们选择了Qwen2.5-32B本地化模型。
1.4.1 通用优化-带输出格式要求提示词专家
系统提示词
1.4.2 通用优化提示词专家
系统提示词:
1.4.3 带建议优化提示词专家
系统提示词
1.4.5 迭代提示词优化优化专家
系统提示词
1.4.5 指令性优化提示词专家
系统提示词
以上就是5个LLM大语言模型系统提示词。
1.4.6 用户提示词
用户提示词其实都一样的。它的内容如下
注意({#1744957040777.prompt#)需要直接输入/并选择prompt
请根据用户输入的提示词{{#1744957040777.prompt#}},基于上面规则生成优化后的提示词
1.5、直接回复
对5个LLM大语言模型的结果使用直接输出进行输出。
利用变量聚合器合并最后只需要输出一个直接回复也是可以的。但是使用聚合的方法,会丢失AI的流式输出,当遇到问题时不方便进行调试与跟踪。
2、验证及测试
打开预览,输入用户提示词和 提示词类型。
原文地址:https://mp.weixin.qq.com/s/5faUIC8772Nb6f2GoesU9Q