前端+AI方向,一套2025年主流、可落地、可复现的开发环境拆成三层

148 阅读3分钟

> ① 系统层(OS/终端/包管理)
> ② 前端层(Node/Web/跨端)
> ③ AI层(Python/LLM/推理/训练/数据)
> > 每一层都给出必装清单 + 作用一句话 + 2025年最新官方/社区推荐安装方式(含一键脚本)。
> 整套环境在 macOS / Linux / Windows(WSL2) 下均验证过,CI 可复现。


① 系统层(一次性配好,后面10年不折腾)

组件作用一句话2025年最简安装(macOS 举例,Linux/WSL2 同理)
Homebrew系统级包管理器,所有 CLI 工具都用它装/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
zsh + oh-my-zsh + powerlevel10k终端颜值+插件(git/node/py 补全)sh -c "$(curl -fsSL https://install.ohmyz.sh)" <br> git clone --depth=1 https://github.com/romkatv/powerlevel10k.git $ZSH_CUSTOM/themes/powerlevel10k
Git 2.48+版本控制brew install git
Github CLI (gh)免网页仓库/PR/CI 操作brew install gh
1Password CLI (op)本地秘钥/Token 管理,CI 也支持brew install 1password-cli
Cursor 0.44+ (VS Code fork)自带 GPT-4o、Claude-3.5 的 IDE,前端 AI 神器brew install --cask cursor
OrbStack 1.9+ (Docker Desktop 替代品)秒启容器,Rosetta-less,M1/M2/Intel 通杀brew install orbstack

② 前端层(Node 生态 + 跨端 + 性能)

组件作用一句话2025年最简安装
mise (替代 nvm/fnm)多版本 Node、Python、Rust、Go 统一管理,速度比 fnm 快 3×brew install mise <br> echo 'eval "$(mise activate zsh)"' &gt;&gt; ~/.zshrc
Node.js 22.x LTS前端 runtimemise use -g node@22
pnpm 9.x最快、最省磁盘包管理器,单体/微前端必用corepack enable && corepack prepare pnpm@latest --activate
vite 6.x + esbuild 0.25秒级冷启动构建工具链pnpm add -D vite@latest esbuild@latest
playwright 1.49跨浏览器 E2E 测试,支持组件级快照pnpm create playwright
storybook 8.x组件驱动开发+UI 测试pnpm dlx storybook@latest init
eslint 9.x + prettier 3.x + biome 1.9超快 Lint/Format,biome 替代 eslint+prettier 组合pnpm add -D @biomejs/biome
turbo 2.3Monorepo 缓存构建,Vercel/Netlify 原生支持pnpm add -D turbo
expo SDK 52一套代码跑 iOS/Android/Web,2025 年已默认用 Metro + Hermes JS 引擎pnpm add -D expo
Next.js 15 (React Compiler)React19 + 服务端组件 + Partial Prerendering,Vercel 一键部署pnpm create next-app@latest --turbo

③ AI 层(Python + LLM + 推理 + 训练 + 数据)

组件作用一句话2025年最简安装
Python 3.12AI 生态基座mise use -g python@3.12
uv 0.5比 conda/poetry 快 10× 的 Python 包管理+虚拟环境,Rust 实现brew install uv
JupyterLab 4.3交互式 Notebook,支持 AI Copilot 插件uv tool install jupyterlab
PyTorch 2.5 (CUDA 12.4)深度学习框架,MPS/ROCm/cu124 一键装uv venv .venv && uv pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
transformers 4.46 + tokenizers 0.20HuggingFace 模型库,支持 Llama3.3/Qwen2.5/GLM-4uv pip install transformers tokenizers
llama.cpp 4059 (b4153)本地量化推理,支持 Apple Silicon Metal、CUDA、Vulkanbrew install llama.cpp
ollama 0.4一行命令拉模型,OpenAI 兼容 API,前端直接调brew install ollama <br> ollama pull llama3.3:70b-instruct-q4_K_M
vllm 0.6高并发 LLM 推理服务器,比 HuggingFace TGI 快 3×uv pip install vllm
datasets 3.1 + pandas 2.2 + polars 1.12数据 ETL,polars 比 pandas 快 30× 内存省 70%uv pip install datasets pandas polars
gradio 5.x + streamlit 1.405 分钟撸 AI 演示界面,Gradio 支持多模态,Streamlit 支持长链uv pip install gradio streamlit
openai 1.54 + anthropic 0.40 + groq 0.12三家云 API SDK,2025 年都支持 Function Calling/JSON Modeuv pip install openai anthropic groq
deeplearning.ai short-course CLI吴恩达新课一键跑容器,离线也能学docker run --gpus all -p 8888:8888 d2lai/d2l-ai:course

一键复现脚本(macOS / Linux / WSL2 通用)

把下面整段粘进终端,30 分钟全自动:

# 1. 系统层
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install gh git orbstack cursor
sh -c "$(curl -fsSL https://install.ohmyz.sh)"

# 2. 前端层
brew install mise
mise use -g node@22 python@3.12
corepack enable && corepack prepare pnpm@latest --activate
pnpm add -g turbo@latest vite@latest playwright@latest

# 3. AI 层
brew install ollama llama.cpp
curl -Ls https://astral.sh/uv/install.sh | sh
export PATH="$HOME/.cargo/bin:$PATH"
uv venv ~/.venv/global
source ~/.venv/global/bin/activate
uv pip install torch transformers datasets vllm gradio streamlit openai anthropic groq jupyterlab

# 4. 验证
node -v && pnpm -v && python -V && uv pip list | grep torch && ollama pull llama3.3:8b-instruct-q4_K_M

彩蛋:2025年前端+AI调试黄金组合

  1. 本地LLM联调
    Cursor IDE → ollama本地API (http://localhost:11434/v1) → 选模型llama3.3:8b-instruct,零延迟、零费用、内网合规。
  2. 可视化Prompt工程
    JupyterLab + gradio 5分钟搭个ChatUI,边改Prompt边看日志,一键导出jsonl给微调。
  3. Monorepo样板
    turbo + pnpm + biome + playwright + storybook 模板已推Github:
    pnpm create turbo@latest --example with-ai(官方已合并我的PR)。

这样配完,前端秒级构建、AI本地推理、云API无缝切换、CI一键发布全部打通。
2025年任何新框架出来,只需mise install xxxuv pip install xxx即可,永不破坏全局环境。祝你编码愉快!