首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
Ollama
订阅
wen酱110586
更多收藏集
微信扫码分享
微信
新浪微博
QQ
76篇文章 · 0订阅
Ollama+OpenWebUI 最佳组合:本地大模型可视化交互方案
本文详细讲解在 Ubuntu 系统上,通过 OpenWebUI 为本地大模型搭建可视化 Web 交互界面。全程离线可用,手把手教你安装适配 Python 版本、创建虚拟环境、部署与启动 OpenWeb
我用 Electron + Ollama,手搓了一个真正能干活的本地 AI Agent
我用 Electron + Ollama,手搓了一个真正能干活的本地 AI Agent 项目支持两种模式,本地模型和在线api,同时集成了一部分工具,用户还可以编写skill
WSL+Ollama 开机自启终极配置,本地大模型永不掉线
每次用 Ollama 都要手动启动?模型 5 分钟自动休眠?这篇教程带你一键配置 Ollama 开机自启、模型常驻、权限与路径迁移,解决本地大模型运行不稳定问题,小白也能跟着做。
OpenCode 接本地 Ollama 一直不会调工具?排查一上午,最后发现是上下文长度的坑
背景 之前使用opencode调用远端模型一切都很顺利,最近想着自己还有个RTX 5060Ti 16G的GPU,想着在家里部署一个本地模型服务,这样能使用本地的模型。整体配置是 OpenCode +
Qwen3.5 在Ollama API中关闭思考模式!
Qwen3.5的开源模型各方面表现都还不错,但是思考时间特别长,有时候我们并不希望他想这么久。 只要关闭思考能力,速度可以提升一个数量级。 而且我发现不少人和我有一样的想法,所以今天就专门说一下这个问
Qwen3.5和GLM4.7Flash疯狂提速,Ollama关闭思考的两种方式!
最近 Qwen 3.5 开源了,各方面参数都非常能打。 可能是最强的开源模型了,甚至各方面参数都直逼前沿的闭源模型了。 所以非常想在本地跑一跑(跑量化版),另外也想接入 OpenClaw 试一试。 但
Ollama一个命令运行Clawdbot,免费又方便!
💪小羊驼已经龙虾拿下了! 只要一行命令,立马就可以用 Ollama 中的一个模型把 Clawdbot 跑起来,而且可以纯本地运行,当然也用免费的 GLM4.7 云端模型。 Ollama 是什么样的存
本地开发闭环了? Ollama+GLM4.7+Claude Code
Ollama 竟然也支持 Anthropic 协议了,这下 Claude Code 无处不在了。 Ollama 0.15 版本一次性支持了 Claude Code、Codex、opencode、dro
Ollama 部署 Qwen 详细指南(2026 最新版)
一、为什么选择 Ollama + Qwen? 优势 说明 ✅ 一键部署 无需配置 Python 环境、CUDA、依赖库 ✅ 自动量化 自动下载 GGUF 4-bit 量化模型,节省显存 ✅ 跨平台支持
Ollama + Python 极简工作流
你是否曾想过让强大的开源大模型(LLM)更懂你的专业领域,或者更能模仿你的写作风格?微调(Fine-Tuning)就是实现这一目标的钥匙。过去,微调是资源雄厚的大公司的专利,动辄需要数十张GPU和复杂