前端+AI 超详细命令清单

91 阅读5分钟

把下面代码 整块复制 → 粘贴 → 回车 就能跑;
每行都有中文注释,放心改路径/用户名。
支持 3 条路线:
① Windows11 + WSL2(推荐)
② macOS 13+(Intel & M 系列)
③ Ubuntu 20+(裸机)


🏁 路线① Windows11 + WSL2(最划算,能白嫖显卡)

1️⃣ 装 WSL2 + Ubuntu22

# 1. 管理员 PowerShell
wsl --install         # 自动装 Ubuntu22,重启
wsl --set-default-version 2
# 2. 重启后第一次进 Ubuntu 会提示新建用户,记住账号密码

2️⃣ 换国内源(复制一整段)

sudo sed -i 's|http://.*.ubuntu.com|https://mirrors.tuna.tsinghua.edu.cn|g' /etc/apt/sources.list
sudo apt update && sudo apt upgrade -y

3️⃣ 一键依赖

sudo apt install -y build-essential git curl wget zip unzip nano

4️⃣ 装 Miniconda(Python 环境管家)

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O miniconda.sh
bash miniconda.sh -b -p $HOME/miniconda3
echo 'export PATH="$HOME/miniconda3/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc

5️⃣ 创建 AI 专用环境(名字别改,后面脚本要用)

conda create -n ai-fe python=3.11 -y
conda activate ai-fe

6️⃣ 装显卡驱动(Win 侧)

  • NVIDIA 官网 下载 535+ 驱动,直接下一步安装。
  • 装完在 Windows 命令行执行:
nvidia-smi

能看到 GPU 名称即成功。

7️⃣ 在 WSL2 里验证 GPU

nvidia-smi

出现同样表格 = ✅


🍎 路线② macOS(Intel & M1/M2)

1️⃣ 先装 Homebrew(复制就跑)

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zshrc
source ~/.zshrc

2️⃣ 基础软件

brew install wget git nano

3️⃣ 装 Miniconda

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-MacOSX-$(uname -m).sh -O miniconda.sh
bash miniconda.sh -b -p $HOME/miniconda3
echo 'export PATH="$HOME/miniconda3/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc

4️⃣ 创建环境

conda create -n ai-fe python=3.11 -y
conda activate ai-fe

⚠️ M 系列芯片 没有 CUDA,后续大模型训练用云 GPU(Colab/AutoDL),本地只做前端推理。


🐧 路线③ Ubuntu20+ 裸机

前 5 步同 WSL2(第 1 段命令从 2️⃣ 开始即可), 显卡驱动用「附加驱动」一键安装:

ubuntu-drivers devices
sudo ubuntu-drivers autoinstall

🧩 公共步骤(3 条路线都要继续)

① 换 Conda 国内源(提速 10 倍)

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --set show_channel_urls yes

② 安装 Python 库(一次复制)

conda activate ai-fe
conda install -y cudatoolkit=11.8 cudnn=8.6 \
                 numpy pandas matplotlib jupyterlab nodejs=20
pip install onnxruntime-gpu  # 自动识别 CUDA

③ 安装 Node 工具(全局)

npm install -g pnpm@8 yarn@4 ts-node

④ 检查版本(必须一模一样再往下走)

python -c "import sys, numpy, tensorflow as tf, onnxruntime as ort;\
           print('Python', sys.version.split()[0]);\
           print('numpy', numpy.__version__);\
           print('TF', tf.__version__);\
           print('ONNX', ort.__version__);\
           print('GPU', tf.config.list_physical_devices('GPU'))"
node -e "console.log('Node', process.version)"

✅ 期望看到:

  • Python 3.11.x
  • TF 2.15.x
  • GPU 设备 ≥1 (Mac 除外)

⑤ 克隆课程模板(含后面所有实战)

git clone --depth=1 https://github.com/ai-fe-bootcamp/camp.git ~/ai-fe
cd ~/ai-fe

⑥ 创建 Jupyter 配置文件

jupyter lab --generate-config
nano ~/.jupyter/jupyter_lab_config.py

把下面 4 行粘到文件最上方(保存退出):Python

c.ServerApp.ip = '0.0.0.0'
c.ServerApp.port = 8888
c.ServerApp.open_browser = False
c.ServerApp.notebook_dir = '~/ai-fe'

⑦ 启动 Jupyter 测试

jupyter lab

浏览器打开 http://localhost:8888 → 能看到左侧 camp 文件夹 = ✅


🗂️ 一键环境脚本(官方维护,每周更新)

我们已把上面所有命令写成 cross-platform 脚本,直接下载:

平台脚本地址运行
Windows(WSL2)raw.githubusercontent.com/ai-fe-bootc…bash win-wsl2.sh
macOSraw.githubusercontent.com/ai-fe-bootc…bash mac.sh
Ubunturaw.githubusercontent.com/ai-fe-bootc…bash ubuntu.sh

🛠️ 必装桌面软件(非命令,下完即可)

软件作用下载
VS Code主力 IDE官网直接装
VS Code 插件Python / Jupyter / ES6 string HTML / WebGL GLSL插件市场一键装
Chrome Canary体验 WebGPU / WebNNwww.google.com/chrome/cana…
OBS Studio录屏交作业官网
Postman调试后端 API官网

🔍 常见问题 30 秒解决

错误一键修复
conda 下载慢conda config --set channel_priority flexible + 清华源
WSL2 无 GPUPowerShell 管理员:wsl --update
M1 装包失败用 conda install tensorflow-macos 代替 tensorflow
node-gyp 报错sudo apt install build-essential python3-make (Ubuntu/WSL)

✅ 完成后检查(拍照发群)

  1. conda activate ai-fe 成功图
  2. tf.config.list_physical_devices('GPU') 有设备(Mac 可跳过)
  3. jupyter lab 能打开并新建 .ipynb
  4. node -v ≥20
  5. VS Code 打开 ~/ai-fe 文件夹截图 全部绿灯 → 在群里发「环境 OK」+ 截图,助教立刻给你开阶段1的权限!

一、环境安装内容解析(一张表看懂)

类别具体软件/库作用一句话没它的后果
系统底座WSL2 / Ubuntu / macOS给 AI 程序提供 Linux 运行环境Windows 裸机装 GPU 驱动=噩梦;很多 pip 包直接失败
显卡驱动NVIDIA Driver 535+让操作系统认识 GPUGPU 只当电暖器,TensorFlow 找不到 CUDA
Python 管家Miniconda隔离不同项目依赖,一键切 Python 版本全局 pip 装崩系统 Python;TF 版本冲突到怀疑人生
计算加速CUDA 11.8 + cuDNN 8.6GPU 高速数学库训练 1 天变 10 天,浏览器推理卡成 PPT
AI 内核TensorFlow 2.15 / ONNXRuntime-GPU深度神经网络引擎模型跑不动,只能看教程过眼瘾
前端运行时Node.js 20 + pnpm/yarn跑 WebGL/WebGPU/WASM 工具链没法把 AI 模型打包成浏览器/小程序可用文件
开发工具VS Code + JupyterLab写代码+交互调试+实时图表记事本写 AI?一改动就全网搜命令
浏览器Chrome Canary提前体验 WebGPU、WebNN 新特性只能看 polyfill,性能差 5 倍
录屏 & 网盘OBS + 百度/OneDrive作业留档、面试作品展示助教无法复现,面试拿不出证据

二、每装完一块,你能「立刻」解锁的能力

1️⃣ 装好系统底座 + 显卡驱动

✅ 你能做:

  • 在命令行执行 nvidia-smi 看到 GPU 名称→确认「显卡没被矿老板挖坏」
  • 跑通 TensorFlow 官方 GPU 测试脚本,成就感 +10086

2️⃣ 装好 Miniconda + CUDA

✅ 你能做:

  • 10 秒新建一个「纯净 Python」环境,再也不怕 pip 装崩
  • 把训练速度从 CPU 10 小时 提到 GPU 30 分钟(真实数据:ResNet50 on CIFAR-10)

3️⃣ 装好 TensorFlow.js + Node 20

✅ 你能做:

  • 在浏览器里跑通「摄像头实时识图」Demo,发给朋友装 X
  • 把 PyTorch 模型转成 .onnx.bin,浏览器加载 <200 KB,首屏 1.5 s

4️⃣ 装好 VS Code + JupyterLab

✅ 你能做:

  • 一边写 Markdown 笔记,一边跑代码,报告直接导出 PDF
  • 远程连 AutoDL,本地 0 占用,躺床上用 iPad 改模型

5️⃣ 装好 Chrome Canary

✅ 你能做:

  • 抢先体验 WebGPU 推理,比 WebGL 再快 3×,面试聊「前沿技术」有谈资
  • 跑官方「Transformers.js」Demo,离线完成「文本生成」,不需要服务器

三、全部装完 = 打通「AI 全栈」任督二脉

场景你现在就能动手做市场价值
浏览器端纯前端跑 MobileNet、YOLO、人脸关键点,包体积 <1 MB小程序 AI 插件外包 3k~8k/个
模型转换把 Python 训练好的 .pth.onnx.bin,浏览器直接加载企业降 80% 服务器成本,岗位 30K+
大模型微调用 LoRA 在 4090 上 30 分钟微调 CodeLlama,补全率提升 8%内部提效项目,直接算绩效
数据闭环前端埋点→主动学习→自动重训,线上漂移 <0.2 自动回滚面试架构题标准答案
合规监控敏感词 1 ms 过滤 + GDPR 可删除 + GPU 显存告警出海产品刚需,法务不再卡上架

四、一句话总结

「系统底座 + GPU 加速 + 隔离环境 + 开发工具」 四件套齐活,你就从
「只能调 API 的调包侠」 → 「能训练、能转换、能部署、能监控的 AI 全栈工程师」。