🎭 小众语言 AIGC:当 Web 端的低资源语言遇上“穷得只剩文化”的生成挑战

92 阅读4分钟

0️⃣ 开场白:把濒危语言塞进浏览器,就像把鲸鱼塞进冰箱

“分三步:打开冰箱、塞鲸鱼、关冰箱。”——经典冷笑话

今天我们要塞的不是鲸鱼,而是只有 3 位使用者、2 部字典、1 个跑不通的 TTF 字体的“小众语言”进浏览器,还要让它自动生成童谣、情诗、甚至催更弹幕。

🧨 技术挑战 = 低资源 × Web 端 × 生成质量。
下面请系好安全带,我们准备在 28 kB 的 wasm 里养一只会写诗的羊驼


1️⃣ 先给“穷酸语料”洗个澡:数据增强的贫民窟版魔法

1.1 语料现状:

语种句子数唯一词备注
濒危 X 语1 200841其中 300 句是“你好谢谢再见”

1.2 贫民窟数据三连:

  1. Back-translate 像渣男:先机器翻译成英语,再翻回来,情感不变,句型乱变
  2. Morphological vandalism:把动词后缀 -chá 随机换成 -tá/-shá假装方言口音
  3. Synonym roulette:同义词来自 1950 年唯一一本字典,翻到哪页用哪页

🪄 代码速写:把语料扩 5 倍,体积不变,像泡面加水——看起来多了,营养没变

// 伪代码:Back-translate 流水线
async function poorManAugment(sentence) {
  const middle = await translate(sentence, {from:'x', to:'en'});
  const back   = await translate(middle, {from:'en', to:'x'});
  return back === sentence ? sentence + ' 😅' : back;
}

2️⃣ 模型瘦身:把 175 B 参数的恐龙压成 28 kB 的蜂鸟

2.1 知识蒸馏三件套

步骤操作副作用
① Teacher 怒吼7 B 参数 Transformer 在服务器咆哮电费暴涨,GPU 冒烟
② Student 装乖6 层、隐藏 128、嵌入 256开始胡言乱语
③ 蒸馏 + 量化权重 * 127 后取整,塞进 Int8文化细节被四舍五入掉了

2.2 Web 端落地:

// 把模型权重视为“冻干泡面”
const modelBuffer = await fetch('x-lang-028k.bin').then(r => r.arrayBuffer());
await wasmModule.loadModel(new Uint8Array(modelBuffer));
// 在用户的手机里跑,风扇不转,电量不掉,像忍者

⚠️ 注意:如果模型输出“我爱你”变成“我矮你”,那是 Int8 把爱压缩没了,不是程序员的错。


3️⃣ 编码噩梦:Unicode 的暗礁与字体荒漠

3.1 码点陷阱

小众语言专用区在 U+1E000 ~ U+1E4FF,老版本 Chrome 把它当成** tofu 生产机**。

3.2 字体子集化

把 4 MB 的 TTF 砍到 82 kB,只留下 641 个字形,像只带 641 个单词去雅思考试

// 使用 glyphhanger 进行“字形屠杀”
execSync(`glyphhanger --subset=XLang.ttf --whitelist=${essentialGlyphs.join(',')} --formats=woff2`);

3.3 fallback 链:

local('XLang') → url('x-lang.woff2') → unicode-range('U+1E000-1E4FF') → sans-serif
如果全部失效,用户将看到一排小框框在跳舞——现代版“结绳记事”。


4️⃣ 推理加速:在浏览器里用 CPU 跑 Transformer 不卡成 PPT

4.1 策略

  • 分段缓存 KV:像把长面条掰断煮
  • WebGPU 矩阵乘法:把 matmul 扔进 GPU,让显卡体验一下濒危语言
  • Worker 线程:不让主线程“冻成狗”,用户滚动页面时模型在后台偷偷写情诗
// 主线程像渣男,只负责收花
const poet = new Worker('poet.worker.js');
poet.postMessage({seed: '月亮', length: 50});
poet.onmessage = ({data}) => appendPoem(data.text);

5️⃣ 质量评估:没有 BLEU,只有“老奶奶点头指数”

5.1 自动指标:

  • Self-BLEU:越低越好,防止模型当复读机
  • Distinct-n:越高越好,防止模型当复读机 Pro

5.2 人工指标:

找村里唯一一位 87 岁老奶奶,她点头一次 +1,摇头一次 -∞

目前最好模型得分:老奶奶点头 3 次,摇头 0 次,创历史新高


6️⃣ 现场演示:28 kB 如何写出一首三行诗

// 调用接口
const poem = await wasmModule.generate({
  prompt: '夜',
  temperature: 0.9,   // 加一点“醉意”
  topK: 40,           // 只从 40 个最可能的 token 里挑,像抽奖但奖池很小
});
console.log(poem);
// 输出:
// 夜把星星撒进牛奶碗
// 羊驼舔光了银河
// 只剩一声“咩”回荡在浏览器的缓存

7️⃣ 彩蛋:把“濒危”做成 NFT?

别,NFT 能耗够让该语言多濒危 0.3 倍
我们决定每生成一行诗,就在后台种一棵虚拟树让文化在硅与碳之间互相光合作用


8️⃣ 结语:让低资源语言在 Web 端“穷开心”

  • 数据少 → 用“翻译回旋镖”硬凑。
  • 模型胖 → 用“蒸馏+量化”瘦身。
  • 字体缺 → 用“子集化+ fallback”补位。
  • 推理慢 → 用“WebGPU+Worker”提速。

最终目标

在非洲某村,一个小孩打开 200 元的安卓机,用流量 2G 就能让母语在屏幕上自己讲故事——
那一刻,鲸鱼和冰箱同时笑了


📚 课后作业(任选)

  1. 把本文所有“羊驼”替换成你家乡的濒危动物,并写一首三行诗
  2. 用 28 kB 限制,给自家方言训练一个“骂人语料生成器”,要求骂得不重样、不带星号
  3. 把老奶奶点头指数开源成 npm 包,名字就叫 grandma-bleau