MoodWave调研:用WorkBuddy+ 腾讯问卷MCP,10分钟创建专业问卷

0 阅读9分钟

🔗 本文是 MoodWave 系列的第二篇。上一篇《从 0 到 1:我如何用 WorkBuddy 打造"全网情绪雷达",为我的 MoodWave App 喂数据》中,我用 WorkBuddy 的小红书 Skill 做了一轮线上公开数据调研,抓取了 88 条真实用户情绪内容。但线上数据有一个局限——它们来自已经在社交媒体上主动表达情绪的人,不能代表"沉默的大多数"。

一、从"情绪雷达"到"线下问卷":MoodWave的调研闭环

在上一篇里,我分享了用 WorkBuddy 搭建"情绪雷达"的过程——通过小红书 Skill 抓取真实用户内容,AI 自动分类为学习、工作、情感、家庭四大类,最终得出了一些很有价值的产品洞察。比如"考研焦虑"和"精神内耗"是高频关键词,这直接影响了 MoodWave 的功能设计方向。

但说实话,线上数据只能覆盖"愿意在网上说的人"。我们做的是大学生情绪管理产品,目标用户是整个大学生群体——包括那些从不发朋友圈、从不小红书倾诉、把情绪憋在心里的人

所以这次,我决定补上调研的另一半:线下问卷

目标很明确:

  • 针对大学生,目标 300+份,覆盖5所以上高校
  • 验证"情绪雷达"线上数据的结论是否在线下也成立

二、校园问卷调研的"老大难"问题

如果你在大学里待过,一定见过这样的场景——

年级群、班群里,隔三差五就有人发:

"大家麻烦帮忙填个问卷!填完领红包~"

然后发一个问卷星链接,下面跟一个微信群红包。大多数人领了红包顺手填了,但也总有人领完红包就消失了。发问卷的人盯着后台数据,看着"已发放红包数"和"有效问卷数"之间的大缺口,欲哭无泪。

这就是校园问卷调研最常见的痛点:红包发了,数据没拿到

而 MoodWave 的这次调研,我不打算踩这个坑。


三、腾讯问卷:红包与答题绑定,解决薅羊毛问题

在腾讯云开发者社区调研 OpenClaw 生态的时候,我了解到腾讯问卷有一个很实用的机制:

红包与答题绑定——用户必须完成问卷提交,才能领取红包。

逻辑很简单:

❌ 传统方式:发红包 → 祈祷别人填 → 亏了

✅ 腾讯问卷:用户填完 → 提交 → 领红包 → 双赢

没有薅羊毛的空间,每一分钱都花在了有效数据上。

方案确定后,接下来就是执行。但问题来了:

我想设置近20道题,涵盖单选、多选、多行文本、段落说明,还有引导语和结束语——手动一道一道创建,估计半小时都不够。

这时候,WorkBuddy 再次出场了。


四、WorkBuddy + 腾讯问卷 MCP:AI 帮我自动建问卷

熟悉我上一篇文章的读者应该知道,WorkBuddy 是一个基于 OpenClaw 生态的 AI Coding 助手,最核心的能力是Skill 生态 + AI Agent——它能调用各种 Skill,自动化完成一整套工作流。

上一次我用的是小红书 Skill 做"情绪雷达",这次用的是腾讯问卷 Skill

第一步:设计问卷内容

根据"情绪雷达"线上调研的结论,我针对性地设计了 18 道题目,覆盖 6 个维度:

部分题号调研目标对应 " 情绪雷达 " 结论
基础信息Q1-Q3用户画像(性别、年级、MBTI)为后续个性化推荐积累数据
情绪现状Q4-Q7负面情绪频率、来源、影响验证"精神内耗"是否普遍
管理习惯Q8-Q11调节方式、App 使用、记录偏好验证用户是否愿意用工具辅助
音乐治愈Q12-Q15音乐调节习惯、AI 音乐兴趣验证"音乐治愈"差异化路线
功能需求Q16-Q17功能吸引力排序、首页偏好直接指导开发优先级
开放建议Q18自由建议收集意料之外的洞察

第二步:配置腾讯问卷 MCP

在 WorkBuddy 中加载「腾讯问卷」Skill 后,只需要做一次鉴权配置:

  1. 访问腾讯问卷 Token 管理页面,创建一个 API Token(以 wjpt_ 开头)
  2. 安装 mcporter CLI 并配置 MCP Server 连接

第三步:一句话,AI 帮你建好整份问卷

我把设计好的 Markdown 文档路径丢给 WorkBuddy,它自动完成了:

  1. 解析文档——理解每道题的题干、选项、题型(单选/多选/文本)
  2. 转换为 DSL 格式——腾讯问卷 API 要求的纯文本语法
  3. 调用 create_survey——一次性提交 18 道题
  4. 自动验证——调用 get_survey 检查是否全部正确录入

我需要做的就一件事:检查 AI 生成的内容有没有问题

第四步:后台检查、设置红包、发布

拿到问卷链接后,在腾讯问卷后台做最后检查,设置红包金额和发放规则,然后开启回收。

从「写设计文档」到「发布问卷」——不到 10 分钟


五、数据回收:线上 + 线下,两份数据互相印证

问卷发到学院群后,"填完才能领红包"的机制让有效填写率大幅提升——截至统计时已回收 105 份有效问卷(目标 150+,仍在回收中)。

几个核心发现:

1. 负面情绪非常普遍——78.1% 每周至少出现 1 次。Q4 数据显示,43.8% 的受访者每月 1-3 次、34.3% 每周 1-2 次、8.6% 每周 3 次以上、5.7% 几乎每天都有。只有 7.6% 表示"几乎没有"。这和"情绪雷达"抓到的高频关键词"精神内耗""焦虑"完全吻合,线上线下的结论一致。

2. 就业/考研焦虑是第一压力源(72.4%),学业压力紧随其后(66.7%) 。Q5 中这两项遥遥领先,第三名"自我否定"只有 47.6%,断层明显。对应"情绪雷达"中"考研焦虑"是出现频率最高的主题,线下问卷再次确认了这个判断。

3. 用户最想要的是"一键快速记录"和"情绪可视化" 。Q16 功能吸引力排行中,"一键快速记录心情(选表情+几个字)"以 46.7%  位列第一,"情绪数据可视化(周/月趋势图、热力日历)"以 38.1% 位列第二,AI 聊天 37.1% 第三。这意味着用户最需要的是低门槛录入 + 直观反馈,而不是花哨的功能。

4. 67.7% 用户对"音乐治愈产品"持正面态度。Q14 中,44.8% 表示"比较愿意",22.9% 表示"非常愿意",合计近七成。这验证了 MoodWave 走"音乐 + AI"差异化路线的正确性,也是比赛方案中最核心的卖点。

5. 45.7% 用户最核心的期望是"干净的治愈界面" 。Q17 的数据让我有点意外——接近一半的受访者选择了"一个干净的、让人平静的治愈界面",远超"快速记录入口"(11.4%) 和"AI 温暖问候"(17.1%)。这个数据直接推翻了我最初"首页做成 Dashboard"的想法:Less is More,首屏不能信息过载

6. Q18 开放建议中涌现了两条高价值洞察。一位用户建议采用"轻社交"模式——不要广场式论坛,而是引入"情绪调解者"角色,用正向反馈(感谢评论、小锦旗)降低社交压力。另一位用户建议 AI 应该是"有记忆的虚拟伙伴",支持捏脸定制,从记录中学习用户,做到"既不过度,也不冷漠"。这两条建议直接影响了 MoodWave 社区模块和 AI Agent 的设计方向。

最有意思的是,线上"情绪雷达"和线下问卷这两份数据,在核心结论上高度一致,但又各自提供了对方没有的视角。线上数据帮我发现了"考研焦虑"这个大方向,线下问卷帮我在"怎么做"的层面给出了具体指引——比如"界面要干净"和"轻社交"这两个关键洞察,是纯线上数据给不了的。两者结合,就是 MoodWave 产品决策的完整证据链。


六、踩坑记录:三个技术细节

过程中遇到了几个坑,记录一下:

坑 1:引导语必须单行

腾讯问卷 DSL 的引导语不能有空行分段,否则报 invalid_text_format

❌ 错误:

问卷标题

第一段引导语

第二段引导语

✅ 正确:

问卷标题

第一段引导语。第二段引导语。写在同一行。

坑 2:分页语法在 API 创建时不一定支持

=== 分页 === 通过 API 创建时可能不被识别。建议先不分页创建,创建后在腾讯问卷后台手动调整分页。

坑 3:mcporter 需要全局安装

首次使用需要 npm install -g mcporter,然后配置 MCP Server URL 和 Authorization Header。Token 从腾讯问卷管理页面获取,以 wjpt_ 开头。


七、总结

回头看这两次调研经历,我觉得最值得分享的是一种思维方式:

先用"情绪雷达"快速摸底,再用"问卷调研"精准验证。

前者帮你发现"用户在关心什么",后者帮你确认"用户到底需要什么"。比如线上"情绪雷达"发现了"考研焦虑"是大方向,线下问卷则帮我确认了"界面要干净""快速记录是第一需求""社区要做轻社交"这些具体的设计原则。两者结合,你拿到的就不是一个模糊的"我觉得用户需要这个",而是有数据支撑的"用户确实需要这个,而且需求强度是这样的"。

而完成这两轮调研的工具,都是 WorkBuddy——一个 Skill对接小红书,一个 Skill对接腾讯问卷。你只需要想清楚"我要调研什么",剩下的交给 Agent 去执行。

对于正在做项目的同学来说,这套调研工作流真的可以试试。不论你是做创新创业比赛、课程大作业、还是自己的 side project,有数据支撑的产品决策,远比拍脑袋靠谱