首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
用户605729284882
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
LLM生成Json结构化数据的几种方案
个人目前认为最好的方式依然是`TypeScript约束Prompt + Yaml格式输出`,适用于90%的结构化输出场景。 如果不缺钱,使用接口提供的Json Mode也是一种很好的选择。
让大模型返回Json结构数据的最好的技术方案
本文介绍了大模型如何返回json结构的数据,并分析了纯提示词方式、prompt + Json mode方式、prompt +JsonSchema方式、prompt + TS方式的技术有劣势。
高并发场景下,为什么大厂都选择SSE而不是WebSocket?
引言:一次推送技术引发的“血案” 某日深夜,某电商平台的服务器突然宕机。 事故原因:每秒100万用户通过WebSocket请求抢购茅台,服务器因频繁握手耗尽CPU资源。 解决方案:技术团队将协议切换为
RAG 实践-Ollama+AnythingLLM 搭建本地知识库
什么是 RAG RAG,即检索增强生成(Retrieval-Augmented Generation),是一种先进的自然语言处理技术架构,它旨在克服传统大型语言模型(LLMs)在处理开放域问题时的信息