> ① 系统层(OS/终端/包管理)
> ② 前端层(Node/Web/跨端)
> ③ AI层(Python/LLM/推理/训练/数据)
>
> 每一层都给出必装清单 + 作用一句话 + 2025年最新官方/社区推荐安装方式(含一键脚本)。
> 整套环境在 macOS / Linux / Windows(WSL2) 下均验证过,CI 可复现。
① 系统层(一次性配好,后面10年不折腾)
| 组件 | 作用一句话 | 2025年最简安装(macOS 举例,Linux/WSL2 同理) |
|---|---|---|
| Homebrew | 系统级包管理器,所有 CLI 工具都用它装 | /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" |
| zsh + oh-my-zsh + powerlevel10k | 终端颜值+插件(git/node/py 补全) | sh -c "$(curl -fsSL https://install.ohmyz.sh)" <br> git clone --depth=1 https://github.com/romkatv/powerlevel10k.git $ZSH_CUSTOM/themes/powerlevel10k |
| Git 2.48+ | 版本控制 | brew install git |
| Github CLI (gh) | 免网页仓库/PR/CI 操作 | brew install gh |
| 1Password CLI (op) | 本地秘钥/Token 管理,CI 也支持 | brew install 1password-cli |
| Cursor 0.44+ (VS Code fork) | 自带 GPT-4o、Claude-3.5 的 IDE,前端 AI 神器 | brew install --cask cursor |
| OrbStack 1.9+ (Docker Desktop 替代品) | 秒启容器,Rosetta-less,M1/M2/Intel 通杀 | brew install orbstack |
② 前端层(Node 生态 + 跨端 + 性能)
| 组件 | 作用一句话 | 2025年最简安装 |
|---|---|---|
| mise (替代 nvm/fnm) | 多版本 Node、Python、Rust、Go 统一管理,速度比 fnm 快 3× | brew install mise <br> echo 'eval "$(mise activate zsh)"' >> ~/.zshrc |
| Node.js 22.x LTS | 前端 runtime | mise use -g node@22 |
| pnpm 9.x | 最快、最省磁盘包管理器,单体/微前端必用 | corepack enable && corepack prepare pnpm@latest --activate |
| vite 6.x + esbuild 0.25 | 秒级冷启动构建工具链 | pnpm add -D vite@latest esbuild@latest |
| playwright 1.49 | 跨浏览器 E2E 测试,支持组件级快照 | pnpm create playwright |
| storybook 8.x | 组件驱动开发+UI 测试 | pnpm dlx storybook@latest init |
| eslint 9.x + prettier 3.x + biome 1.9 | 超快 Lint/Format,biome 替代 eslint+prettier 组合 | pnpm add -D @biomejs/biome |
| turbo 2.3 | Monorepo 缓存构建,Vercel/Netlify 原生支持 | pnpm add -D turbo |
| expo SDK 52 | 一套代码跑 iOS/Android/Web,2025 年已默认用 Metro + Hermes JS 引擎 | pnpm add -D expo |
| Next.js 15 (React Compiler) | React19 + 服务端组件 + Partial Prerendering,Vercel 一键部署 | pnpm create next-app@latest --turbo |
③ AI 层(Python + LLM + 推理 + 训练 + 数据)
| 组件 | 作用一句话 | 2025年最简安装 |
|---|---|---|
| Python 3.12 | AI 生态基座 | mise use -g python@3.12 |
| uv 0.5 | 比 conda/poetry 快 10× 的 Python 包管理+虚拟环境,Rust 实现 | brew install uv |
| JupyterLab 4.3 | 交互式 Notebook,支持 AI Copilot 插件 | uv tool install jupyterlab |
| PyTorch 2.5 (CUDA 12.4) | 深度学习框架,MPS/ROCm/cu124 一键装 | uv venv .venv && uv pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124 |
| transformers 4.46 + tokenizers 0.20 | HuggingFace 模型库,支持 Llama3.3/Qwen2.5/GLM-4 | uv pip install transformers tokenizers |
| llama.cpp 4059 (b4153) | 本地量化推理,支持 Apple Silicon Metal、CUDA、Vulkan | brew install llama.cpp |
| ollama 0.4 | 一行命令拉模型,OpenAI 兼容 API,前端直接调 | brew install ollama <br> ollama pull llama3.3:70b-instruct-q4_K_M |
| vllm 0.6 | 高并发 LLM 推理服务器,比 HuggingFace TGI 快 3× | uv pip install vllm |
| datasets 3.1 + pandas 2.2 + polars 1.12 | 数据 ETL,polars 比 pandas 快 30× 内存省 70% | uv pip install datasets pandas polars |
| gradio 5.x + streamlit 1.40 | 5 分钟撸 AI 演示界面,Gradio 支持多模态,Streamlit 支持长链 | uv pip install gradio streamlit |
| openai 1.54 + anthropic 0.40 + groq 0.12 | 三家云 API SDK,2025 年都支持 Function Calling/JSON Mode | uv pip install openai anthropic groq |
| deeplearning.ai short-course CLI | 吴恩达新课一键跑容器,离线也能学 | docker run --gpus all -p 8888:8888 d2lai/d2l-ai:course |
一键复现脚本(macOS / Linux / WSL2 通用)
把下面整段粘进终端,30 分钟全自动:
# 1. 系统层
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install gh git orbstack cursor
sh -c "$(curl -fsSL https://install.ohmyz.sh)"
# 2. 前端层
brew install mise
mise use -g node@22 python@3.12
corepack enable && corepack prepare pnpm@latest --activate
pnpm add -g turbo@latest vite@latest playwright@latest
# 3. AI 层
brew install ollama llama.cpp
curl -Ls https://astral.sh/uv/install.sh | sh
export PATH="$HOME/.cargo/bin:$PATH"
uv venv ~/.venv/global
source ~/.venv/global/bin/activate
uv pip install torch transformers datasets vllm gradio streamlit openai anthropic groq jupyterlab
# 4. 验证
node -v && pnpm -v && python -V && uv pip list | grep torch && ollama pull llama3.3:8b-instruct-q4_K_M
彩蛋:2025年前端+AI调试黄金组合
- 本地LLM联调:
Cursor IDE →ollama本地API (http://localhost:11434/v1) → 选模型llama3.3:8b-instruct,零延迟、零费用、内网合规。 - 可视化Prompt工程:
JupyterLab +gradio5分钟搭个ChatUI,边改Prompt边看日志,一键导出jsonl给微调。 - Monorepo样板:
turbo+pnpm+biome+playwright+storybook模板已推Github:
pnpm create turbo@latest --example with-ai(官方已合并我的PR)。
这样配完,前端秒级构建、AI本地推理、云API无缝切换、CI一键发布全部打通。
2025年任何新框架出来,只需mise install xxx或uv pip install xxx即可,永不破坏全局环境。祝你编码愉快!