一、前言:一个前端的“觉醒”时刻
从前,有一个前端工程师,他每天的工作就是写 HTML、CSS 和 JavaScript,把设计师画的图变成网页,然后点击按钮的时候弹个提示框:“Hello World!”。
某一天,他在刷朋友圈时看到一句话:
“未来的前端不是只会写 DOM 操作,而是能和 AI 对话。”
那一刻,他的内心受到了一万点暴击。于是他决定不再做“切图仔”,要成为“AI 驾驶员”。
二、故事背景:服务器端 vs 前端的战争
在过去,也就是 Web1.0 时代前端就像是个听话的小学生,老师(服务器)说什么就是什么。比如:
- 用户输入一个 URL 或者点击一个链接;
- 浏览器向服务器发请求;
- Node.js / Java 后端收到请求,去数据库查数据;
- 然后拼成一个 HTML 字符串返回给前端;
- 前端像个接收快递的小哥一样,把 HTML 展示出来。
这就像你让妈妈帮你买奶茶,她去买回来给你喝——虽然安全可靠,但不够酷。
而到了 Web 2.0 的时代,事情开始变得不一样了。
三、Fetch 的崛起:前端终于能自己跑腿了!
有一天,前端学会了 fetch 这个新技能,从此走上了“自立门户”的道路。
3.1 Fetch 是什么?
简单来说,fetch 就是浏览器自带的“打电话工具”。你可以直接给服务器说:“嘿,我想要这个数据!” 而不需要等页面刷新。不需要用户点击链接
比如你在某个社交网站上滑到底部,突然出现“加载更多内容”,这就是 fetch 在背后默默工作的结果。
fetch('https://api.example.com/posts')
.then(response => response.json())
.then(data => {
// 把数据渲染到页面上
data.forEach(post => {
document.getElementById('posts').innerHTML += `<div>${post.title}</div>`;
});
});
来个最简单的例子: 当我们在掘金滚动页面,其实就是添加了一个滚动事件,让fetch向服务器请求数据
四、点赞也能 AI 化?别逗了!
你以为点赞只是前端改个数字那么简单?错!现在连点赞都能和 AI 搭边!
假设你想实现一个“智能点赞”功能,用户点了赞之后,系统会自动分析这条内容是否值得推荐,或者判断用户是否真的喜欢它。
这时候,你可以调用一个 AI 接口,比如 DeepSeek 提供的大模型 API,来对用户的点赞行为进行“心理分析”:
fetch('https://api.deepseek.com/analyze', {
method: 'POST',// 请求方式为POST
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'// 你的deepseek api key
},
body: JSON.stringify({ // 需要转化成JSON字符串,因为http包中只能是字符串、文本和二进制流
text: "用户刚刚点赞了这篇技术文章",
action: "like"
})
})
.then(response => response.json())
.then(result => {
console.log("AI 分析结果:", result);
});
是不是有种“我的点赞被 AI 审视”的感觉?别怕,这只是未来生活的预演 😂
五、LLM 来了!前端也能召唤 AI 师傅
5.1 LLM 是啥?
LLM,全称 Large Language Model(大型语言模型),也就是我们常说的“AI 写作神器”。它可以写代码、写文章、写情书、甚至写简历。
而现在,这些强大的能力,也可以通过 HTTP 请求,被前端调用!
5.2 如何召唤 DeepSeek?
DeepSeek 是一个非常优秀的国产大模型平台,支持多种任务,包括聊天、写作、推理等。它的 API 使用起来也非常简单,只需要几个步骤:
步骤一:获取 API Key
去 DeepSeek 官网 注册账号,申请 API Key,类似于进入 AI 工厂的通行证。
步骤二:构造请求头
告诉服务器,我们的数据类型,授权我们刚刚申请好的api key
const headers = {
// 内容类型
'Content-Type': 'application/json',
// 授权
Authorization: `Bearer 你的api key`
}
步骤三:构造请求体
选择大模型,告诉deepseek你要求它干什么:
我们就简单的打个招呼:
const payload = {
model: 'deepseek-chat',
messages: [
// chat 三种方式
// 1.系统角色 只会出现一次 设置系统的角色 开始会话时
// 2.用户角色 user 提问
// 3.助手角色 出现在响应中
{ role: 'system', content: 'You are a helpful assistant.' },
{ role: 'user', content: '你好 deepseek' }
]
}
步骤四:fetch登场
fetch(endpoint, {
method: 'POST', // 请求方式为POST
headers: headers,
// http 请求传输只能是字符串,二进制流
// 将复杂数据类型转换成 JSON字符串
body: JSON.stringify(payload)
// then 请求 + LLM 生成需要花费时间
// http 请求 是基于请求响应的简单协议
// 返回的也是文本或二进制流
}).then(res => res.json())
// then 解析返回的JSON数据 也要花时间
.then(data => {
console.log(data);
document.querySelector('#reply').innerHTML
= data.choices[0].message.content
})
就这样,你就能在前端召唤deepseek,简直不要太爽!
这就是我们前面提及的助手角色,会帮我返回我们请求deepseek的内容
document.querySelector('#reply').innerHTML = data.choices[0].message.content
就是将图中choices数组的第一条数据中的message中的content挂载到我们的前端页面,我们就能在前端页面,看到deepseek的回答了
当然了你需要询问其他问题,只需要修改,用户角色里面的content,换成你想问的问题
六、WebLLM:智能前端的新战场
你以为这就完了?不,这只是开始。
随着 WebLLM(Web-based Large Language Models)的发展,越来越多的大模型可以直接运行在浏览器中。这意味着:
- 不需要每次都调用远程服务器;
- 数据更安全,隐私更有保障;
- 速度更快,响应更及时。
比如 Hugging Face、TensorFlow.js、ONNX Runtime 等项目,都在尝试让大模型在浏览器中本地运行。
想象一下,未来的前端不仅能操作 DOM,还能训练模型、生成文本、回答问题……是不是有点“人机合一”的感觉?
七、总结:前端的未来是“智能+交互”
今天的前端不再是只会写 HTML 的小弟,而是能够主动出击、调用 AI、与用户深度互动的“智能终端”。
我们可以总结为:
| 传统前端 | 智能前端 |
|---|---|
| 被动展示数据 | 主动请求数据 |
| 只能响应点击 | 能调用 AI 模型 |
| 页面静态更新 | 内容动态生成 |
所以,如果你想在未来保持竞争力,不妨早点拥抱 AI,学习如何用 fetch 与大模型对话,做一个既能写代码又能聊 AI 的“复合型前端”。才能更具竞争力
八、结语:未来已来,只等你来驾驭
从最简单的 fetch 请求,到如今能调用 AI 大模型,前端的世界正在发生翻天覆地的变化。
也许再过几年,我们打开浏览器就能和 AI 实时对话,写文章、查资料、解决问题都像呼吸一样自然。
而你,作为前端开发者,正是这场变革的亲历者和推动者。
所以,拿起你的键盘,写好每一个 fetch,调好每一个 API,迎接属于你的“智能前端时代”吧!