首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
server
订阅
chogori
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
AI场景前端必学——SSE流式传输
由于大模型通常是需要实时推理的,浏览器提交数据,服务端完成推理,然后将结果以 JSON 数据格式通过标准的 HTTP 协议返回给前端。所以SSE流式传输成了前端必学的内容
WebSocket太笨重?试试SSE的轻量级魅力!
一、 前言 Hello~ 大家好。我是秋天的一阵风~ 关注我时间长一点的同学们应该会了解,我最近算是跟旧项目 “较上劲” 了哈哈哈。 刚发布了一篇清除项目里的“僵尸”文件文章,这不,我又发现了旧项目上
告别轮询,SSE 流式传输可太香了!
今天想和大家分享的一个技术是 SSE 流式传输 。如标题所言,通过 SSE 流式传输的方式可以让我们不再通过轮询的方式获取服务端返回的结果,进而提升前端页面的性能。 对于需要轮询的业务场景来说,采用