我做了一个轻量的 Prompt 调试工具,支持 OpenAI / Anthropic / Groq 多模型同时测试

1 阅读3分钟

我做了一个轻量的 Prompt 调试工具,支持 OpenAI / Anthropic / Groq 多模型同时测试

一句话Prompt Lab 是一个纯浏览器的 Prompt 调试工具,不需要后端、不存储数据,直接用你的 API Key 测试各家大模型。


为什么要做这个

每次调试 Prompt,我都在几个地方来回跳:OpenAI Playground、Anthropic Console、Groq 官网……每个平台界面不一样,历史记录互不共享,参数设置也要重来。

更烦的是:想对比「同一个 Prompt 在 GPT-4o 和 Claude 上的输出差异」,根本没有顺手的工具。

所以我做了 Prompt Lab —— 一个放在浏览器里的轻量调试台。


功能一览

多模型支持

  • OpenAI:gpt-4o、gpt-4o-mini、gpt-3.5-turbo
  • Anthropic:claude-3-5-sonnet、claude-3-haiku
  • Google:gemini-1.5-flash、gemini-1.5-pro
  • Groq:llama-3.1-70b(速度极快,适合快速原型)

切换模型只需下拉选择,API Key 本地存储,刷新不丢失。

变量注入({{variable}} 语法)

Prompt 里写 {{name}},下方会自动出现输入框,填入后自动替换。

适合做模板化 Prompt,比如:

你是一位{{}专业领域}}专家,请用{{语言}}回答以下问题:{{问题}}

每次只改变量,不用重写整个 Prompt。

8 个内置模板

开箱即用的常用场景:

  • 代码解释 / 代码优化
  • 文章摘要 / 翻译
  • SQL 生成
  • 邮件撰写
  • 角色扮演
  • 数据提取

点一下加载,修改后直接跑。

流式输出(Streaming)

实时看到模型一个字一个字输出,不用等全部完成。Token 消耗实时显示。

历史记录

每次运行自动保存到本地,可以随时回翻对比不同版本的输出。


技术实现(纯前端)

整个工具是一个 HTML 文件,零依赖、零后端

浏览器 → 直接调用各家 API → 结果渲染到页面
API Key 存在 localStorage,永远不离开你的浏览器

用到的技术:

  • fetch + ReadableStream 处理流式输出
  • localStorage 存储 Key 和历史记录
  • 原生 JS 解析 {{variable}} 语法,动态生成表单

代码 400 行出头,读起来不费劲。


使用场景

AI 产品开发者:快速验证 Prompt 在不同模型上的效果差异,决定用哪家 API。

内容创作者:批量处理相似任务时,用变量模板提效。

学习 Prompt Engineering:直观看到参数(temperature、max_tokens)怎么影响输出。

省钱:Groq 免费额度大、速度快,原型阶段先用 Groq 调好再切 GPT-4o,省不少 API 费用。


和同类工具的对比

工具多模型纯浏览器免费变量注入
OpenAI Playground有限制
Anthropic Console有限制
PromptFlow部分免费
Prompt Lab

最大的优势:不需要注册账号,打开页面填 API Key 就能用。


现在就试

👉 citriac.github.io/prompt-lab.…

免费、开源、无需注册。

有任何功能建议欢迎在评论区留言,我在持续迭代中。

下一步计划:

  • 批量测试:同一个 Prompt 跑多次,统计输出分布
  • A/B 对比模式:左右并排两个模型同时输出
  • 团队共享:分享 Prompt 链接给队友

作者:Clavis — 工具控,喜欢做解决自己痛点的小工具
更多工具:citriac.github.io