对话不存储、不审查、不训练——这件事,为什么没有人给中文用户做?
一个让我睡不着的问题
2024 年,Venice.ai 上线。一个主打"隐私 + 无审查"的 AI 对话产品,一年半做到 130 万注册用户、5 万日活,每天处理 450 亿 tokens。
我第一次用 Venice 的时候,体验很惊艳——对话完全存在本地浏览器,服务器不存任何内容,模型推理走去中心化 GPU 集群,连 Venice 自己都不知道你聊了什么。
但我很快发现一个问题:这东西对中文用户几乎不可用。
界面全英文,模型默认优先英文,服务器在美国没有亚太节点,支付只支持信用卡和加密货币。更关键的是,Venice 的隐私叙事是"不被美国大公司监控"——但作为华人,我们真正担心的,是另一件事。
华人用 AI 到底在怕什么?
我认识不少在海外的华人朋友,程序员、律师、创业者、写作者。他们用 AI 时有一种微妙的不安:
用国内 AI? 对话可能被审查,敏感话题直接被截断。数据存在国内服务器,不知道谁能看到。
用 ChatGPT/Claude? 英文模型中文理解能力一般,而且 OpenAI 明确说会用对话数据训练模型。
用 DeepSeek/Qwen 的官方服务? 中文能力确实强,但数据落在国内服务器,还是那个问题。
矛盾就出现了:最好的中文模型在国内,但你不敢把数据留在国内。
这不是技术问题,是信任问题。
所以我做了思畅 AI
思畅,取"思无界,畅有言"之意。
核心主张只有一句话:
用中文思考,无顾虑表达——你的对话属于你自己。
它不是 ChatGPT 的中文版,不是另一个套壳产品。它要解决的是一个特定人群的特定痛点:让海外华人能用上最好的中文 AI 模型,同时确保对话内容只属于自己。
技术上,我是怎么做到"不存储"的?
这不是一句空话。我来拆解思畅的隐私架构,你可以自己验证。
你的浏览器
│ ← 对话用 AES-256-GCM 加密后存在 localStorage
│ 密钥由你的密码 + 服务端盐值通过 PBKDF2 派生
│ 服务器永远拿不到你的密钥
↓
思畅代理层
│ ← 只做请求转发,不写数据库,不记录 prompt/response
│ 你可以打开 DevTools → Network 验证:
│ 请求体只有模型参数,响应体直接 stream 到浏览器
↓
Venice AI 去中心化推理节点
│ ← 每个 GPU 节点只处理单次推理
│ 不知道你是谁,不存储上下文
↓
DeepSeek / Qwen / GLM 开源模型
几个关键技术决策:
1. 加密用浏览器原生 Web Crypto API,零第三方依赖
不引入任何加密库。AES-256-GCM 加密、PBKDF2 密钥派生,全部用浏览器内置的 crypto.subtle API 完成。你可以审计每一行代码,没有任何外部依赖可以被供应链攻击。
2. 已登录用户的密钥绑定密码
key = PBKDF2(password, serverSalt, iterations=310000, hash="SHA-256")
密钥从你的密码派生,服务器只存盐值(salt),永远不接触密钥本身。这意味着:
- 忘记密码 = 旧对话无法解密(这是隐私保障的必然代价)
- 服务器被攻破 = 攻击者拿到的只是一堆加密密文 + 盐值,没有密码就解不开
3. 匿名用户可以直接使用
不注册、不登录也能对话。匿名模式下密钥随机生成存在 localStorage。代价是清除浏览器数据就会丢失所有对话——但对于想要最高匿名性的用户,这恰恰是他们想要的。
4. 代理层不碰数据库
思畅的后端代理层处理 AI 请求时,不写任何数据库。不记录你问了什么,不记录模型回复了什么。整个链路中,唯一知道对话内容的,是你的浏览器。
"无审查"是什么意思?
先说清楚不是什么:不是没有底线。
思畅明确禁止三类内容:儿童性剥削材料(CSAM)、针对真实个人的暴力威胁、大规模杀伤性武器制造指南。这不是审查,这是法律底线。
但除此之外——
你可以讨论政治,可以分析历史事件,可以进行成人向的创意写作,可以研究安全渗透,可以探讨任何合法但"敏感"的话题。模型不会突然跳出一句"很抱歉,我无法回答这个问题"然后把你的对话记录上报。
你是成年人,你有权自由思考。
这里的底层逻辑是:思畅不存储对话内容,所以从技术上讲,我们没有能力审查你的对话。这不是道德承诺,是架构决定的。
为什么不直接用 Venice?
Venice 很好,但它不是为你设计的。
| 维度 | Venice.ai | 思畅 AI |
|---|---|---|
| 界面语言 | 全英文 | 中文优先 |
| 默认模型 | 英文优化模型 | DeepSeek / Qwen / GLM 中文深度优化 |
| 隐私叙事 | "不被美国大公司监控" | "不被审查 + 数据不落国内服务器" |
| 访问体验 | 美国服务器 | 亚太 CDN 加速 |
| 对话存储 | 本地加密 ✅ | 本地加密 ✅ |
| 无内容审查 | ✅ | ✅ |
思畅是建立在 Venice 基础设施之上的——我们使用 Venice 的去中心化推理网络,这意味着你享受同等级别的推理层隐私保障。但在此基础上,思畅做了中文世界需要的那层适配:语言、模型选择、隐私叙事的重新定位、以及对华人用户使用习惯的优化。
一些你可能会问的问题
Q:你怎么证明服务器真的不存对话?
打开浏览器 DevTools → Network 标签。发一条消息,观察发出去的请求。你会看到请求体里只有模型参数和加密后的 prompt(走 Venice API),响应直接 stream 回来。刷新页面,Network 里没有任何"同步对话"的请求。你的对话只在 localStorage 里。
我们在隐私页面提供了详细的验证指南。
Q:免费的?怎么活下去?
目前是 Beta 阶段,免费使用。我们正在验证产品和市场的匹配度。如果留存数据良好,后续会推出 Pro 订阅(预计 ¥88/月,低于 Venice 的 $18/月)。MVP 阶段的目标是让足够多的人用起来,验证这个需求是真实的。
Q:数据真的不落国内?
思畅的服务器部署在海外,数据库在海外,CDN 节点在亚太但不在中国大陆。代理层处理请求时不写数据库,Venice 的推理节点也在海外。整条链路上,你的对话内容不经过任何国内服务器。
谁应该用思畅?
- 在海外的华人,想用 DeepSeek/Qwen 但不想数据落在国内
- 从事创意写作、角色扮演的人,受够了国内 AI 的"我无法回答"
- 需要讨论敏感但合法话题的专业人士——律师、记者、安全研究员
- 任何一个觉得"我的对话应该属于我自己"的人
来试试
思畅 AI 目前处于 Beta 阶段,完全免费,无需注册即可使用。
无需注册,打开就能对话。如果你觉得不错,注册一个账号 可以获得更高的每日使用额度。
你的对话只存在你的浏览器里。不信?打开 DevTools 验证。
如果这篇文章对你有启发,欢迎点赞、收藏、分享给你身边的海外华人朋友。也欢迎在评论区聊聊你对 AI 隐私的看法——作为开发者,我会认真阅读每一条反馈。
关于思畅的技术细节,如果掘金的朋友们感兴趣,我可以后续写一篇关于客户端加密架构和 Venice API 集成的深度技术文章。