AI实践实操命令清单(可打印,适配Ubuntu+SRE背景)
说明:所有命令均需在conda的ai-env环境下执行(除非特殊标注),重点标注核心操作,注释简洁,可直接复制执行,适配第一、二、三阶段实践。
第一阶段:基础环境校验+本地小实践(核心命令)
一、环境校验(1天)
1.1 conda环境校验
- conda tos accept --override-channels --channel repo.anaconda.com/pkgs/main # 接受conda channels服务条款(解决创建环境报错)
- conda tos accept --override-channels --channel repo.anaconda.com/pkgs/r # 接受conda channels服务条款(解决创建环境报错)
- conda create --name ai-env python=3.12 -y # 修正:用规范--name,python3.12稳定版(3.13过新,清华源无适配包,避免误判环境名为包)
- conda activate ai-env # 激活AI专属环境
- source ~/.bashrc # 环境变量刷新(若conda命令无法识别)
- conda list # 查看已安装核心库(确认pytorch、transformers等)
- python -c "import torch; print(torch.version)" # 校验pytorch可用
- python -c "from transformers import AutoModel; print('Transformers可用')" # 校验transformers可用
- conda install -y pytorch torchvision transformers sentencepiece accelerate -c pytorch # 补装缺失核心库
1.2 Docker环境校验
- docker --version # 查看Docker版本
- systemctl status docker # 查看Docker服务状态(需为active)
- docker ps # 查看运行中的容器
- sudo systemctl start docker && sudo systemctl enable docker # 启动并设置Docker自启动
- sudo usermod -aG docker $USER # 配置无需sudo操作Docker(需重启电脑生效)
二、本地小实践(Ollama+Deepseek)
2.1 Ollama安装与校验
- curl -fsSL ollama.com/install.sh | sh # 安装Ollama
- ollama --version # 校验Ollama安装成功
2.2 Deepseek模型部署与交互
- ollama run deepseek-r1:8b # 下载并运行Deepseek轻量化模型(INT4量化,CPU可用)
- /exit # 退出模型交互界面
- ollama restart # 重启Ollama服务(交互界面启动失败时)
- ollama stop deepseek-r1:8b # 停止模型运行,释放资源
2.3 模型优化与运维(选做)
- sudo systemctl enable ollama && sudo systemctl start ollama # 设置Ollama自启动
- ollama run deepseek-r1:8b --cpu-threads 4 # 调整CPU线程(根据自身CPU核心数修改)
- journalctl -u ollama -f # 查看Ollama服务日志(故障排查)
- clear # 清理终端缓存(可选)
- lscpu # 查看CPU配置(可选)
- nvidia-smi # 查看GPU配置(无GPU可忽略)
第二阶段:开源大模型深度实践+工具联动(核心命令)
一、Deepseek容器化部署(搭配Open WebUI)
- docker pull ghcr.io/open-webui/open-webui:main # 拉取Open WebUI镜像
- mkdir /opt/openwebui # 创建挂载目录
- docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v /opt/openwebui:/app/backend/data --name deepseek-webui --restart always ghcr.io/open-webui/open-webui:main # 启动容器,映射端口
二、Hello-Agents框架部署
- git clone github.com/datawhalech… # 克隆仓库
- cd hello-agents && pip install -r requirements.txt # 进入目录并安装依赖
- conda activate ai-env # 确保激活conda环境(安装依赖前)
第三阶段:综合项目落地(核心命令)
- conda activate ai-env # 激活环境(部署所有组件前)
- docker ps -a # 查看所有容器(排查容器冲突)
- docker stop 容器名/容器ID # 停止指定容器
- docker rm 容器名/容器ID # 删除指定容器(需先停止)
- journalctl -u ollama -f # 查看Ollama日志(项目故障排查)
- systemctl status prometheus # 查看Prometheus监控服务状态
常用辅助命令(全阶段通用)
- sudo systemctl restart docker # 重启Docker服务
- conda deactivate # 退出conda环境
- docker restart deepseek-webui # 重启Open WebUI容器
- ping ollama.com # 测试网络(模型下载失败时)