前段时间在做大模型本地部署相关的折腾,发现目前在 Apple Silicon (M1~M4芯片) 上跑推理已经很成熟了(比如 Ollama),但是**微调(Fine-tuning)**这条链路依然非常割裂。 每次微调,都要先写 Python 脚本洗数据、转 JSONL,再配一套 MLX 的环境,跑完之后测试又得切回命令行,最后还得手动转 GGUF 或者导给 Ollama。 作为一个喜欢 All-in-One 的强迫症患者,我实在受不了这种反复横跳,于是花时间用 Tauri 2.x + React 撸了一个开源的桌面端工具:M-Courtyard。 (接下来放几张精美的产品截图)
核心解决几个痛点:
- 数据处理纯 UI 化(文本直接转标准微调格式)
- 底层无缝对接
mlx-lm,榨干 Mac 的统一内存做训练 - 训练完直接在软件里 A/B 测试对话效果
- 一键导出给 Ollama 运行
项目完全开源 (AGPL 3.0),源码在 GitHub:github.com/Mcourtyard/…
今天发出来,希望有在 Mac 上折腾模型的老哥们帮忙试用下,提提意见!