首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ai创作
程序员老孙
创建于2026-03-31
订阅专栏
关于ai相关的文章
暂无订阅
共3篇文章
创建于2026-03-31
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
A卡也不差,手动编译llama.cpp,轻松运行Qwen3.5蒸馏Opus4.6模型(附完整实操)
amd显卡用llamacpp,用qwen3.5蒸馏claude opus 4.6模型。总的来说,虽然过程比用Ollama繁琐一点,但成功运行Qwopus3.5-27B-v3的那一刻,值了。
Ollama Windows 部署:一键安装 + 局域网服务,适配 OpenClaw 无 token 限制
摆脱商用模型额度束缚 OpenClaw使用国内可搭的无限量本地大模型,是在windows下面配置ollama支持OpenClaw
双显卡实测 Qwen3.5 122B:超大参数模型,真的比 27B 更强吗?
双a40显卡,搭建122B环境,与27B模型对比。结论:模型不是越大越好,要根据不同的硬件选择不同的模型。适合的才是最好的。