首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LLM Learning
xincheng_q
创建于2026-02-02
订阅专栏
大模型相关的知识
暂无订阅
共3篇文章
创建于2026-02-02
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
【LLM】如何让大模型格式化输出消息?
如何格式化输出 如何让大模型格式化输出消息?从简单到复杂,主要有以下几种层级的方法: 1. 纯提示词引导 (Prompt Engineering) 最原始的方法,通过 System Prompt 强制
【LLM】低秩矩阵LoRA的使用指南
为什么LoRA中低秩矩阵是一个优势? 前一篇文章我们在讨论 Attention 矩阵时说“满秩好,低秩意味着能力坍塌”,但到了 LoRA(Low-Rank Adaptation)这里,怎么“低秩”反而
【LLM-八股篇】为什么现在的LLM都是Decoder-only架构
LLM为什么Decoder only架构 先给出苏神的答案: LLM之所以主要都用Decoder-only架构,除了训练效率和工程实现上的优势外,在理论上是因为Encoder的双向注意力会存在低秩问题