这才是真正的 AI 自由:ChatGPT 被我装进了笔记本!

58 阅读3分钟

三行命令,我的电脑变成了 ChatGPT

云服务太贵、API 又限速,我干脆自己动手。

没想到,只用三行命令,我的笔记本真的跑出了一个能「思考」的 AI。

不用联网、不花钱、不上传隐私,

它能写代码、改文案、甚至分析数据。

那一刻我笑了—— AI 自由,不是连上云,而是装进你的电脑。

只要 Docker,不用折腾环境

我用的方案叫 Ollama,一个超轻量的本地模型管理工具。

不需要复杂配置,只要你的电脑装了 Docker。

然后三行命令,搞定一切👇

# 创建容器(挂载模型目录)
docker run -d --name ollama -p 11434:11434 -v ~/work/ollama_models:/root/.ollama ollama/ollama

# 下载模型(Qwen3 4B 思考版)
docker exec -it ollama ollama pull qwen3:4b-thinking-2507-q4_K_M

# 启动测试(进入交互对话)
docker exec -it ollama ollama run qwen3:4b-thinking-2507-q4_K_M

终端输出:

“你好!有什么我可以帮你的吗?😊”

一瞬间,你的电脑就拥有了自己的“AI大脑”。

这个 Qwen3,不只是会说话

它的全名是 Qwen3 4B Thinking 模型

别看参数量“只有”4B,它的思考模式真的很特别。

每次回答前,它会先进入 Thinking...done. 阶段,

像是在脑海里过一遍逻辑再输出。

这让它在写代码、解释架构、排查 Bug 时表现惊艳。 它不是在“背答案”,而是在推理。

让 AI “边想边说”

默认模式是一口气输出,像憋了十秒才开口。

但如果你想让它像 ChatGPT 一样“边想边说”,

只要打开 流式输出(Streaming Response)

在 Ollama 里,只要一行配置👇

curl http://localhost:11434/api/chat -N -d '{
  "model": "qwen3:4b-thinking-2507-q4_K_M",
  "messages": [{"role":"user","content":"请解释一下transformer的原理"}],
  "stream": true
}'

参数说明:

  • -N:保持连接不断开(流式关键)
  • "stream": true:实时输出内容

屏幕上文字会一行一行刷出来, 那种“AI 正在思考”的感觉,真的很治愈。

为什么要自己部署?

有人问我:“网页版用得好好的,干嘛折腾本地?” 其实,答案很现实:

  1. 隐私安全: 你的代码、数据、文件都不出电脑。

  2. 响应更快: 本地显卡推理,比云端延迟低几倍。

  3. 随心定制: 想换模型、微调 Prompt、接企业知识库?都自己掌控。

一句话总结: 别人用的是 AI 服务,而你,拥有一台 AI 工厂。

让 Qwen3 成为“你自己的员工”

当你能跑起来、能流式交互,下一步就该玩“应用层”:

  • 接入你公司的文档库,做企业私有知识问答;
  • 让它自动生成日报、周报和分析结论;
  • 打造你专属的「AI 助手」。

这些,全部在本地完成,不依赖任何云。 这才是真正的个人 AI 主权。

未来的智能,不在云端,在你身边

当我在终端看到那句“你好”时,

那一刻我笑了。

这不是在和一台机器对话,

而是在见证一个时代的转折。

未来的 AI,不再高高在上,

而是运行在你家电脑、你公司服务器、你身边。

三行命令,就能点亮你的专属智能世界。

如果你也想拥有属于自己的“AI 工厂”,不妨试试这套部署方案。


微信公众号.jpg