稀土掘金 稀土掘金
    • 首页
    • 沸点
    • 课程
    • 数据标注 HOT
    • AI Coding
    • 更多
      • 直播
      • 活动
      • APP
      • 插件
    • 直播
    • 活动
    • APP
    • 插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
LLM
订阅
avatar
AI茶水间管理员 创作等级LV.3
更多收藏集

微信扫码分享

微信
新浪微博
QQ

2篇文章 · 0订阅
  • 如何让LLM稳定输出 JSON 格式结果?
    在AI应用开发中,让大语言模型(LLM)稳定输出合法、规范的JSON是生产环境的刚需。一旦JSON格式出错,轻则接口解析失败,重则导致整个服务链路崩溃。 LLM 输出 JSON 格式的常见翻车现场:
    • AI茶水间管理员
    • 28天前
    • 216
    • 2
    • 评论
    前端 后端 人工智能
    如何让LLM稳定输出 JSON 格式结果?
  • 谁在掌控大模型的创造力开关?Temperature & Top-p
    谁在掌控大模型的创造力开关?Temperature & Top-p 一、先搞懂:大模型生成文字,到底在做什么? 在聊Temperature和Top-p之前,先极简科普LLM的生成逻辑:大模型每输出一个
    • AI茶水间管理员
    • 1月前
    • 188
    • 2
    • 1
    后端 人工智能
    谁在掌控大模型的创造力开关?Temperature & Top-p