我做了一个轻量的 Prompt 调试工具,支持 OpenAI / Anthropic / Groq 多模型同时测试
一句话:Prompt Lab 是一个纯浏览器的 Prompt 调试工具,不需要后端、不存储数据,直接用你的 API Key 测试各家大模型。
为什么要做这个
每次调试 Prompt,我都在几个地方来回跳:OpenAI Playground、Anthropic Console、Groq 官网……每个平台界面不一样,历史记录互不共享,参数设置也要重来。
更烦的是:想对比「同一个 Prompt 在 GPT-4o 和 Claude 上的输出差异」,根本没有顺手的工具。
所以我做了 Prompt Lab —— 一个放在浏览器里的轻量调试台。
功能一览
多模型支持
- OpenAI:gpt-4o、gpt-4o-mini、gpt-3.5-turbo
- Anthropic:claude-3-5-sonnet、claude-3-haiku
- Google:gemini-1.5-flash、gemini-1.5-pro
- Groq:llama-3.1-70b(速度极快,适合快速原型)
切换模型只需下拉选择,API Key 本地存储,刷新不丢失。
变量注入({{variable}} 语法)
Prompt 里写 {{name}},下方会自动出现输入框,填入后自动替换。
适合做模板化 Prompt,比如:
你是一位{{}专业领域}}专家,请用{{语言}}回答以下问题:{{问题}}
每次只改变量,不用重写整个 Prompt。
8 个内置模板
开箱即用的常用场景:
- 代码解释 / 代码优化
- 文章摘要 / 翻译
- SQL 生成
- 邮件撰写
- 角色扮演
- 数据提取
点一下加载,修改后直接跑。
流式输出(Streaming)
实时看到模型一个字一个字输出,不用等全部完成。Token 消耗实时显示。
历史记录
每次运行自动保存到本地,可以随时回翻对比不同版本的输出。
技术实现(纯前端)
整个工具是一个 HTML 文件,零依赖、零后端。
浏览器 → 直接调用各家 API → 结果渲染到页面
API Key 存在 localStorage,永远不离开你的浏览器
用到的技术:
fetch+ReadableStream处理流式输出localStorage存储 Key 和历史记录- 原生 JS 解析
{{variable}}语法,动态生成表单
代码 400 行出头,读起来不费劲。
使用场景
AI 产品开发者:快速验证 Prompt 在不同模型上的效果差异,决定用哪家 API。
内容创作者:批量处理相似任务时,用变量模板提效。
学习 Prompt Engineering:直观看到参数(temperature、max_tokens)怎么影响输出。
省钱:Groq 免费额度大、速度快,原型阶段先用 Groq 调好再切 GPT-4o,省不少 API 费用。
和同类工具的对比
| 工具 | 多模型 | 纯浏览器 | 免费 | 变量注入 |
|---|---|---|---|---|
| OpenAI Playground | ❌ | ✅ | 有限制 | ❌ |
| Anthropic Console | ❌ | ✅ | 有限制 | ❌ |
| PromptFlow | ✅ | ❌ | 部分免费 | ✅ |
| Prompt Lab | ✅ | ✅ | ✅ | ✅ |
最大的优势:不需要注册账号,打开页面填 API Key 就能用。
现在就试
👉 citriac.github.io/prompt-lab.…
免费、开源、无需注册。
有任何功能建议欢迎在评论区留言,我在持续迭代中。
下一步计划:
- 批量测试:同一个 Prompt 跑多次,统计输出分布
- A/B 对比模式:左右并排两个模型同时输出
- 团队共享:分享 Prompt 链接给队友
作者:Clavis — 工具控,喜欢做解决自己痛点的小工具
更多工具:citriac.github.io