我用 Tauri + MLX 撸了一个纯本地的桌面工作台(针对Apple Silicon)

0 阅读1分钟

前段时间在做大模型本地部署相关的折腾,发现目前在 Apple Silicon (M1~M4芯片) 上跑推理已经很成熟了(比如 Ollama),但是**微调(Fine-tuning)**这条链路依然非常割裂。 每次微调,都要先写 Python 脚本洗数据、转 JSONL,再配一套 MLX 的环境,跑完之后测试又得切回命令行,最后还得手动转 GGUF 或者导给 Ollama。 作为一个喜欢 All-in-One 的强迫症患者,我实在受不了这种反复横跳,于是花时间用 Tauri 2.x + React 撸了一个开源的桌面端工具:M-Courtyard。  (接下来放几张精美的产品截图)

核心解决几个痛点:

  1. 数据处理纯 UI 化(文本直接转标准微调格式)
  2. 底层无缝对接 mlx-lm,榨干 Mac 的统一内存做训练
  3. 训练完直接在软件里 A/B 测试对话效果
  4. 一键导出给 Ollama 运行

项目完全开源 (AGPL 3.0),源码在 GitHub:github.com/Mcourtyard/…

今天发出来,希望有在 Mac 上折腾模型的老哥们帮忙试用下,提提意见!