从 Hello World 到 AI 师傅:前端也能玩转大模型

153 阅读6分钟

一、前言:一个前端的“觉醒”时刻

从前,有一个前端工程师,他每天的工作就是写 HTML、CSS 和 JavaScript,把设计师画的图变成网页,然后点击按钮的时候弹个提示框:“Hello World!”。

某一天,他在刷朋友圈时看到一句话:

“未来的前端不是只会写 DOM 操作,而是能和 AI 对话。”

那一刻,他的内心受到了一万点暴击。于是他决定不再做“切图仔”,要成为“AI 驾驶员”。

二、故事背景:服务器端 vs 前端的战争

在过去,也就是 Web1.0 时代前端就像是个听话的小学生,老师(服务器)说什么就是什么。比如:

  • 用户输入一个 URL 或者点击一个链接;
  • 浏览器向服务器发请求;
  • Node.js / Java 后端收到请求,去数据库查数据;
  • 然后拼成一个 HTML 字符串返回给前端;
  • 前端像个接收快递的小哥一样,把 HTML 展示出来。

这就像你让妈妈帮你买奶茶,她去买回来给你喝——虽然安全可靠,但不够酷。

而到了 Web 2.0 的时代,事情开始变得不一样了。

三、Fetch 的崛起:前端终于能自己跑腿了!

有一天,前端学会了 fetch 这个新技能,从此走上了“自立门户”的道路。

3.1 Fetch 是什么?

简单来说,fetch 就是浏览器自带的“打电话工具”。你可以直接给服务器说:“嘿,我想要这个数据!” 而不需要等页面刷新。不需要用户点击链接

比如你在某个社交网站上滑到底部,突然出现“加载更多内容”,这就是 fetch 在背后默默工作的结果。

fetch('https://api.example.com/posts')
    .then(response => response.json())
    .then(data => {
        // 把数据渲染到页面上
        data.forEach(post => {
            document.getElementById('posts').innerHTML += `<div>${post.title}</div>`;
        });
    });

来个最简单的例子: 当我们在掘金滚动页面,其实就是添加了一个滚动事件,让fetch向服务器请求数据

B1E595BDE5B620090426_converted.gif

四、点赞也能 AI 化?别逗了!

你以为点赞只是前端改个数字那么简单?错!现在连点赞都能和 AI 搭边!

假设你想实现一个“智能点赞”功能,用户点了赞之后,系统会自动分析这条内容是否值得推荐,或者判断用户是否真的喜欢它。

这时候,你可以调用一个 AI 接口,比如 DeepSeek 提供的大模型 API,来对用户的点赞行为进行“心理分析”:

fetch('https://api.deepseek.com/analyze', {
    method: 'POST',// 请求方式为POST
    headers: {
        'Content-Type': 'application/json',
        'Authorization': 'Bearer YOUR_API_KEY'// 你的deepseek api key
    },
    body: JSON.stringify({ // 需要转化成JSON字符串,因为http包中只能是字符串、文本和二进制流
        text: "用户刚刚点赞了这篇技术文章",
        action: "like"
    })
})
.then(response => response.json())
.then(result => {
    console.log("AI 分析结果:", result);
});

是不是有种“我的点赞被 AI 审视”的感觉?别怕,这只是未来生活的预演 😂

五、LLM 来了!前端也能召唤 AI 师傅

5.1 LLM 是啥?

LLM,全称 Large Language Model(大型语言模型),也就是我们常说的“AI 写作神器”。它可以写代码、写文章、写情书、甚至写简历。

而现在,这些强大的能力,也可以通过 HTTP 请求,被前端调用!

5.2 如何召唤 DeepSeek?

DeepSeek 是一个非常优秀的国产大模型平台,支持多种任务,包括聊天、写作、推理等。它的 API 使用起来也非常简单,只需要几个步骤:

步骤一:获取 API Key

DeepSeek 官网 注册账号,申请 API Key,类似于进入 AI 工厂的通行证。

image.png

步骤二:构造请求头

告诉服务器,我们的数据类型,授权我们刚刚申请好的api key

const headers = {
    // 内容类型
    'Content-Type': 'application/json',
    // 授权
    Authorization: `Bearer 你的api key`
}

步骤三:构造请求体

选择大模型,告诉deepseek你要求它干什么:

我们就简单的打个招呼:

const payload = {
    model: 'deepseek-chat',
    messages: [
        // chat 三种方式
        // 1.系统角色 只会出现一次 设置系统的角色 开始会话时
        // 2.用户角色 user  提问
        // 3.助手角色  出现在响应中
        { role: 'system', content: 'You are a helpful assistant.' },
        { role: 'user', content: '你好 deepseek' }
    ]
}

步骤四:fetch登场

fetch(endpoint, {
    method: 'POST',  // 请求方式为POST
    headers: headers,
    // http 请求传输只能是字符串,二进制流 
    // 将复杂数据类型转换成 JSON字符串
    body: JSON.stringify(payload)
    // then 请求 + LLM 生成需要花费时间
    // http 请求 是基于请求响应的简单协议
    // 返回的也是文本或二进制流
}).then(res => res.json())
    // then 解析返回的JSON数据 也要花时间
    .then(data => {
        console.log(data);
        document.querySelector('#reply').innerHTML
            = data.choices[0].message.content
    })

就这样,你就能在前端召唤deepseek,简直不要太爽!

这就是我们前面提及的助手角色,会帮我返回我们请求deepseek的内容 image.png

document.querySelector('#reply').innerHTML = data.choices[0].message.content

就是将图中choices数组的第一条数据中的message中的content挂载到我们的前端页面,我们就能在前端页面,看到deepseek的回答了

image.png

当然了你需要询问其他问题,只需要修改,用户角色里面的content,换成你想问的问题

六、WebLLM:智能前端的新战场

你以为这就完了?不,这只是开始。

随着 WebLLM(Web-based Large Language Models)的发展,越来越多的大模型可以直接运行在浏览器中。这意味着:

  • 不需要每次都调用远程服务器;
  • 数据更安全,隐私更有保障;
  • 速度更快,响应更及时。

比如 Hugging Face、TensorFlow.js、ONNX Runtime 等项目,都在尝试让大模型在浏览器中本地运行。

想象一下,未来的前端不仅能操作 DOM,还能训练模型、生成文本、回答问题……是不是有点“人机合一”的感觉?

七、总结:前端的未来是“智能+交互”

今天的前端不再是只会写 HTML 的小弟,而是能够主动出击、调用 AI、与用户深度互动的“智能终端”。

我们可以总结为:

传统前端智能前端
被动展示数据主动请求数据
只能响应点击能调用 AI 模型
页面静态更新内容动态生成

所以,如果你想在未来保持竞争力,不妨早点拥抱 AI,学习如何用 fetch 与大模型对话,做一个既能写代码又能聊 AI 的“复合型前端”。才能更具竞争力

八、结语:未来已来,只等你来驾驭

从最简单的 fetch 请求,到如今能调用 AI 大模型,前端的世界正在发生翻天覆地的变化。

也许再过几年,我们打开浏览器就能和 AI 实时对话,写文章、查资料、解决问题都像呼吸一样自然。

而你,作为前端开发者,正是这场变革的亲历者和推动者。

所以,拿起你的键盘,写好每一个 fetch,调好每一个 API,迎接属于你的“智能前端时代”吧!