【从0到1大模型应用开发实战】01|本地跑起第一个 LLM:Python + uv + Ollama

0 阅读3分钟

前言:

最近我准备做AI知识库的小项目,用来整合自己学习的内容,也是验证自己所学习的AI知识,打算把这些整理成一个系列文章。

这篇是第一篇,不讲原理,也不讲概念, 只做一件事:

在你自己的电脑上,把大模型跑起来,并让它回你一句话。

如果你之前从来没碰过 AI,也完全没关系。

一、先说清楚我们要做什么

这篇文章结束时,你应该能做到三件事:

  1. 电脑上装好了 Python 环境
  2. uv 管理一个干净的 Python 项目
  3. 本地大模型(Ollama) 完成第一次问答

注意:不是网页聊天,不是 API 调用,是你本地跑的模型。

二、安装 Python

我这里默认你用的是:

  • macOS / Windows 都可以
  • Python 3.11 或 3.12

怎么装?

最简单粗暴的方式:

装完后,终端里敲一句:

python --version

能看到版本号,就算过关。

三、为什么我用 uv,而不是 pip + venv?

如果你之前写过 Python,大概率踩过这种坑:

  • 装一个包,另一个项目炸了
  • pip 装到系统环境,不知道卸哪
  • requirements.txt 越来越乱

我现在统一用 uv

一句话解释 uv 是什么:

更快、更干净的 Python 项目管理工具。

安装 uv

macOS / Linux:

curl -LsSf https://astral.sh/uv/install.sh | sh

Windows 可以用官方安装方式。

装完后验证:

uv --version

四、用 uv 初始化你的第一个 AI 项目

随便找个你放代码的目录:

mkdir ai-knowledge-base
cd ai-knowledge-base

然后执行:

uv init
uv venv

这两步做了什么?

  • uv init:初始化 Python 项目
  • uv venv:创建虚拟环境(.venv)

从现在开始,这个项目的依赖只属于它自己

五、安装并运行 Ollama(重点)

前面都是铺垫,真正的主角来了,ollama对于本地搭建llm非常的方便,下载完成之后就有一个自带的聊天框可以选择各种各种的大模型来使用。即使你本地没有显卡用cpu都能跑(当然是比较小的模型)。

1.安装 Ollama

官网:ollama.com/download

下载安装到本地,安装完成后,终端里敲一句:

ollama --version

能看到版本号就 OK。

2.拉一个模型跑起来

第一次别追求大, 我建议直接用小模型,比如:

ollama run gemma:1b

如果你是第一次跑,它会自动下载模型。

下载完后,你会看到一个提示符, 这时候你可以直接输入一句话,比如:

你好,你是谁?

如果模型回你了——🎉 恭喜,你已经在本地跑起了一个大模型。

总结:

这篇文章结束时,我们完成了三件事:

  1. 电脑上装好了 Python 环境
  2. uv 管理一个干净的 Python 项目
  3. 本地大模型(Ollama) 完成第一次问答

走到这里虽然内容很简单,但是依然是个了不起的开始,后面所有的:

  • LangChain
  • RAG
  • Agent
  • 自动化流程

都是建立在这一步之上~