定位:AI 应用可靠性交付者
-
技术栈:
- 前端 + SSE
- 基础后端 / BFF
- LLM API
-
重点能力:
- 稳定
- 可 debug
- 可解释
目标不是“惊艳”,而是“放心” 。
问题:这些能力是不局限于前端的,前端工程师需要做这些横向扩展吗?比如基础后端,什么是BFF?关于LLM API需要学习什么技能或者知识?
这个问题问得非常对位,而且你已经抓住了关键点:
这条路本质上是“系统角色”,而不是“前端岗位”。
我会非常具体地回答你三件事:
- 要不要做横向扩展?做到什么程度才“刚好”
- 什么是 BFF?你到底要不要学
- LLM API 层,你“该学什么 / 不该学什么”
我会刻意帮你控制范围,避免你又被推回“拼上限”。
一、要不要做横向扩展?结论先给
要,但不是“转后端”,而是“补齐控制面”。
你不是要变成全栈,而是要做到一句话:
“这个 AI 功能,从用户点下按钮,到模型返回结果,中间发生了什么,我都说得清楚。”
只要能做到这一点,你就够格。
二、什么是 BFF?(给你一个不抽象的版本)
1️⃣ BFF 是什么(人话版)
BFF = Backend For Frontend
不是“后端通用服务”,而是:
专门为某一个前端 / 某一类客户端服务的后端层
它的职责不是复杂业务逻辑,而是:
- 聚合接口
- 管控调用
- 兜住不稳定性
- 隔离前端与复杂系统
2️⃣ 在 AI 场景下,BFF 是干嘛的?
在你这条路里,BFF 非常关键。
一个典型链路是:
前端(UI + SSE)
↓
BFF(你需要懂的)
↓
LLM API / 工具 / 数据
BFF 在中间负责:
-
🔒 密钥管理
- API key 不能在前端
-
⏱ 超时 / 重试 / 取消
-
🔁 防止请求叠加
-
📜 日志 / tracing
-
📦 输出结构校验
-
💰 成本控制
👉 很多“AI 前端的坑”,本质上是没有 BFF 或 BFF 太弱。
3️⃣ 你需要学到什么程度?
不是:
- 高并发架构
- 微服务拆分
- 分布式事务
而是:
-
一个 Node / Python 服务
-
会写:
- API
- 中间件
- SSE 转发
-
会处理:
- session / request id
- cancel / abort
- 错误码
👉 目标:你能亲手写一个 BFF,而不是只会“调用后端”。
三、基础后端:你真正需要的是哪些能力?
我给你一个**“最小可靠后端能力集”**:
必须会(够用即可)
- HTTP 生命周期
- async / await
- 并发请求管理
- 超时 / retry
- 日志(结构化)
可选(有更好)
- Redis(做简单状态)
- 队列(长任务)
- 简单 auth(token)
你不需要:
- 深度数据库设计
- 分布式一致性
- 高性能调优
四、LLM API:你到底要学什么?
这是最容易“学偏”的地方,我帮你划清边界。
1️⃣ 你必须懂的(非常重要)
🔹 请求与响应结构
- messages / roles
- function / tool calling
- streaming chunks
- finish_reason
👉 你要能回答:
“模型为什么在这里停了?”
🔹 输出控制
- structured output
- schema 校验
- prompt 当协议
👉 你要关心的是:
“怎么让它不乱说,而不是说得多好。”
🔹 幻觉的工程治理
- grounding
- 校验
- self-check
- fallback
不是论文,是工程手段。
2️⃣ 你应该知道,但不必深入的
- temperature / top-p
- embedding 原理
- RAG 的基本思路
👉 知道“为什么会有问题”,但不用研究细节。
3️⃣ 你可以不碰的(除非你感兴趣)
- 模型训练
- 参数微调
- LoRA / RLHF
- SOTA 评测
这些属于拼上限区。
五、把它们合在一起,你的角色就清楚了
你不是:
“会前端,也懂一点 AI”
而是:
“负责 AI 应用从 UI 到模型的稳定交付链路的人”
这是一种系统角色,不是岗位名称。
六、一个现实的学习顺序(不焦虑版)
Step 1(你现在)
- 前端 + SSE
- 处理并发 / 覆盖
Step 2(关键一步)
- 自己写一个 BFF
- 把 LLM 调用搬到 BFF
Step 3(拉开差距)
- 加日志 / replay
- 给失败一个明确路径
最后一句(很重要)
横向扩展不是为了“更强”,
而是为了“不被不确定性裹挟”。
你扩展的不是技能树,
而是控制半径。
如果你愿意,下一步我可以:
- 帮你画一个**“你该掌控的最小技术边界图”**
- 或给你一个非常具体的 BFF + LLM + SSE 的练手方案
你选哪个?