🔗 本文是 MoodWave 系列的第二篇。上一篇《从 0 到 1:我如何用 WorkBuddy 打造"全网情绪雷达",为我的 MoodWave App 喂数据》中,我用 WorkBuddy 的小红书 Skill 做了一轮线上公开数据调研,抓取了 88 条真实用户情绪内容。但线上数据有一个局限——它们来自已经在社交媒体上主动表达情绪的人,不能代表"沉默的大多数"。
一、从"情绪雷达"到"线下问卷":MoodWave的调研闭环
在上一篇里,我分享了用 WorkBuddy 搭建"情绪雷达"的过程——通过小红书 Skill 抓取真实用户内容,AI 自动分类为学习、工作、情感、家庭四大类,最终得出了一些很有价值的产品洞察。比如"考研焦虑"和"精神内耗"是高频关键词,这直接影响了 MoodWave 的功能设计方向。
但说实话,线上数据只能覆盖"愿意在网上说的人"。我们做的是大学生情绪管理产品,目标用户是整个大学生群体——包括那些从不发朋友圈、从不小红书倾诉、把情绪憋在心里的人。
所以这次,我决定补上调研的另一半:线下问卷。
目标很明确:
- 针对大学生,目标 300+份,覆盖5所以上高校
- 验证"情绪雷达"线上数据的结论是否在线下也成立
二、校园问卷调研的"老大难"问题
如果你在大学里待过,一定见过这样的场景——
年级群、班群里,隔三差五就有人发:
"大家麻烦帮忙填个问卷!填完领红包~"
然后发一个问卷星链接,下面跟一个微信群红包。大多数人领了红包顺手填了,但也总有人领完红包就消失了。发问卷的人盯着后台数据,看着"已发放红包数"和"有效问卷数"之间的大缺口,欲哭无泪。
这就是校园问卷调研最常见的痛点:红包发了,数据没拿到。
而 MoodWave 的这次调研,我不打算踩这个坑。
三、腾讯问卷:红包与答题绑定,解决薅羊毛问题
在腾讯云开发者社区调研 OpenClaw 生态的时候,我了解到腾讯问卷有一个很实用的机制:
红包与答题绑定——用户必须完成问卷提交,才能领取红包。
逻辑很简单:
❌ 传统方式:发红包 → 祈祷别人填 → 亏了
✅ 腾讯问卷:用户填完 → 提交 → 领红包 → 双赢
没有薅羊毛的空间,每一分钱都花在了有效数据上。
方案确定后,接下来就是执行。但问题来了:
我想设置近20道题,涵盖单选、多选、多行文本、段落说明,还有引导语和结束语——手动一道一道创建,估计半小时都不够。
这时候,WorkBuddy 再次出场了。
四、WorkBuddy + 腾讯问卷 MCP:AI 帮我自动建问卷
熟悉我上一篇文章的读者应该知道,WorkBuddy 是一个基于 OpenClaw 生态的 AI Coding 助手,最核心的能力是Skill 生态 + AI Agent——它能调用各种 Skill,自动化完成一整套工作流。
上一次我用的是小红书 Skill 做"情绪雷达",这次用的是腾讯问卷 Skill。
第一步:设计问卷内容
根据"情绪雷达"线上调研的结论,我针对性地设计了 18 道题目,覆盖 6 个维度:
| 部分 | 题号 | 调研目标 | 对应 " 情绪雷达 " 结论 |
|---|---|---|---|
| 基础信息 | Q1-Q3 | 用户画像(性别、年级、MBTI) | 为后续个性化推荐积累数据 |
| 情绪现状 | Q4-Q7 | 负面情绪频率、来源、影响 | 验证"精神内耗"是否普遍 |
| 管理习惯 | Q8-Q11 | 调节方式、App 使用、记录偏好 | 验证用户是否愿意用工具辅助 |
| 音乐治愈 | Q12-Q15 | 音乐调节习惯、AI 音乐兴趣 | 验证"音乐治愈"差异化路线 |
| 功能需求 | Q16-Q17 | 功能吸引力排序、首页偏好 | 直接指导开发优先级 |
| 开放建议 | Q18 | 自由建议 | 收集意料之外的洞察 |
第二步:配置腾讯问卷 MCP
在 WorkBuddy 中加载「腾讯问卷」Skill 后,只需要做一次鉴权配置:
- 访问腾讯问卷 Token 管理页面,创建一个 API Token(以
wjpt_开头) - 安装 mcporter CLI 并配置 MCP Server 连接
第三步:一句话,AI 帮你建好整份问卷
我把设计好的 Markdown 文档路径丢给 WorkBuddy,它自动完成了:
- 解析文档——理解每道题的题干、选项、题型(单选/多选/文本)
- 转换为 DSL 格式——腾讯问卷 API 要求的纯文本语法
- 调用
create_survey——一次性提交 18 道题 - 自动验证——调用
get_survey检查是否全部正确录入
我需要做的就一件事:检查 AI 生成的内容有没有问题。
第四步:后台检查、设置红包、发布
拿到问卷链接后,在腾讯问卷后台做最后检查,设置红包金额和发放规则,然后开启回收。
从「写设计文档」到「发布问卷」——不到 10 分钟。
五、数据回收:线上 + 线下,两份数据互相印证
问卷发到学院群后,"填完才能领红包"的机制让有效填写率大幅提升——截至统计时已回收 105 份有效问卷(目标 150+,仍在回收中)。
几个核心发现:
1. 负面情绪非常普遍——78.1% 每周至少出现 1 次。Q4 数据显示,43.8% 的受访者每月 1-3 次、34.3% 每周 1-2 次、8.6% 每周 3 次以上、5.7% 几乎每天都有。只有 7.6% 表示"几乎没有"。这和"情绪雷达"抓到的高频关键词"精神内耗""焦虑"完全吻合,线上线下的结论一致。
2. 就业/考研焦虑是第一压力源(72.4%),学业压力紧随其后(66.7%) 。Q5 中这两项遥遥领先,第三名"自我否定"只有 47.6%,断层明显。对应"情绪雷达"中"考研焦虑"是出现频率最高的主题,线下问卷再次确认了这个判断。
3. 用户最想要的是"一键快速记录"和"情绪可视化" 。Q16 功能吸引力排行中,"一键快速记录心情(选表情+几个字)"以 46.7% 位列第一,"情绪数据可视化(周/月趋势图、热力日历)"以 38.1% 位列第二,AI 聊天 37.1% 第三。这意味着用户最需要的是低门槛录入 + 直观反馈,而不是花哨的功能。
4. 67.7% 用户对"音乐治愈产品"持正面态度。Q14 中,44.8% 表示"比较愿意",22.9% 表示"非常愿意",合计近七成。这验证了 MoodWave 走"音乐 + AI"差异化路线的正确性,也是比赛方案中最核心的卖点。
5. 45.7% 用户最核心的期望是"干净的治愈界面" 。Q17 的数据让我有点意外——接近一半的受访者选择了"一个干净的、让人平静的治愈界面",远超"快速记录入口"(11.4%) 和"AI 温暖问候"(17.1%)。这个数据直接推翻了我最初"首页做成 Dashboard"的想法:Less is More,首屏不能信息过载。
6. Q18 开放建议中涌现了两条高价值洞察。一位用户建议采用"轻社交"模式——不要广场式论坛,而是引入"情绪调解者"角色,用正向反馈(感谢评论、小锦旗)降低社交压力。另一位用户建议 AI 应该是"有记忆的虚拟伙伴",支持捏脸定制,从记录中学习用户,做到"既不过度,也不冷漠"。这两条建议直接影响了 MoodWave 社区模块和 AI Agent 的设计方向。
最有意思的是,线上"情绪雷达"和线下问卷这两份数据,在核心结论上高度一致,但又各自提供了对方没有的视角。线上数据帮我发现了"考研焦虑"这个大方向,线下问卷帮我在"怎么做"的层面给出了具体指引——比如"界面要干净"和"轻社交"这两个关键洞察,是纯线上数据给不了的。两者结合,就是 MoodWave 产品决策的完整证据链。
六、踩坑记录:三个技术细节
过程中遇到了几个坑,记录一下:
坑 1:引导语必须单行
腾讯问卷 DSL 的引导语不能有空行分段,否则报 invalid_text_format。
❌ 错误:
问卷标题
第一段引导语
第二段引导语
✅ 正确:
问卷标题
第一段引导语。第二段引导语。写在同一行。
坑 2:分页语法在 API 创建时不一定支持
=== 分页 === 通过 API 创建时可能不被识别。建议先不分页创建,创建后在腾讯问卷后台手动调整分页。
坑 3:mcporter 需要全局安装
首次使用需要 npm install -g mcporter,然后配置 MCP Server URL 和 Authorization Header。Token 从腾讯问卷管理页面获取,以 wjpt_ 开头。
七、总结
回头看这两次调研经历,我觉得最值得分享的是一种思维方式:
先用"情绪雷达"快速摸底,再用"问卷调研"精准验证。
前者帮你发现"用户在关心什么",后者帮你确认"用户到底需要什么"。比如线上"情绪雷达"发现了"考研焦虑"是大方向,线下问卷则帮我确认了"界面要干净""快速记录是第一需求""社区要做轻社交"这些具体的设计原则。两者结合,你拿到的就不是一个模糊的"我觉得用户需要这个",而是有数据支撑的"用户确实需要这个,而且需求强度是这样的"。
而完成这两轮调研的工具,都是 WorkBuddy——一个 Skill对接小红书,一个 Skill对接腾讯问卷。你只需要想清楚"我要调研什么",剩下的交给 Agent 去执行。
对于正在做项目的同学来说,这套调研工作流真的可以试试。不论你是做创新创业比赛、课程大作业、还是自己的 side project,有数据支撑的产品决策,远比拍脑袋靠谱。