首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
coting
掘友等级
算法工程
分享是一种信仰,连接让知识更有温度
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
5
文章 5
沸点 0
赞
5
返回
|
搜索文章
coting
算法工程
·
1天前
关注
大模型框架之PEFT
在大模型浪潮下,如何让模型在 低成本、低门槛 的条件下完成特定任务的适配,是开发者和研究者共同关注的问题。 Hugging Face 推出的 PEFT框架,为这一挑战提供了...
0
评论
分享
coting
算法工程
·
1天前
关注
大模型微调框架之TRL
近年来,大语言模型(LLMs)的快速发展推动了下游应用的繁荣,但如何高效地对这些模型进行对齐和微调,依然是研究与应用的热点。本文将介绍 TRL 的 框架组成基本原理,并给出...
0
评论
分享
coting
算法工程
·
9天前
关注
知识管理与 RAG 框架全景:从 LlamaIndex 到多框架集成
本篇文章就让我们来看一下 LlamaIndex和Haystack 这两个框架,我简单的介绍一下架构设计,以及多框架集成和知识库动态管理实践,同时提供示例代码帮助你快速理解并...
0
评论
分享
coting
算法工程
·
9天前
关注
深入 vLLM:高性能大模型推理框架解析
在大模型应用中,推理性能往往成为限制系统规模和用户体验的关键因素。为此,vLLM 应运而生,提供了高吞吐量、低延迟的推理引擎,并支持多模型协作和异构硬件调度。...
1
评论
分享
coting
算法工程
·
11天前
关注
手把手带你使用LangChain框架从0实现RAG
本文将带大家用 LangChain 框架,结合向量数据库,构建一个简易的 RAG 系统,并完成一个端到端的问答任务。...
0
评论
分享
coting
算法工程
·
11天前
关注
深入 LangChain:大模型工程框架架构全解析
LangChain 作为目前最流行的大模型工程化框架之一,提供了从业务逻辑编排、工具调用、知识管理到多模型协作的完整解决方案。它不仅让大模型能够更好地落地企业应用,还为复杂...
0
评论
分享
coting
算法工程
·
13天前
关注
从原理到实战:RLHF(人类反馈强化学习)完整流程
RLHF(Reinforcement Learning with Human Feedback)是近年来推动大语言模型(LLM)快速发展的关键技术之一。...
1
评论
分享
coting
算法工程
·
13天前
关注
一文搞懂什么是微调
在当今自然语言处理领域,预训练语言模型如GPT、BERT等凭借强大的通用能力,已经成为推动技术进步的重要引擎。然而,仅仅依赖这些通用模型,往往难以满足具体任务的特殊需求。...
0
评论
分享
coting
算法工程
·
13天前
关注
大模型工程框架生态全览
随着大语言模型(LLM)的快速发展,单纯依赖原始模型已经无法满足复杂的业务需求。如何高效管理模型、构建多轮对话、集成外部工具和知识库、同时保证高性能推理,成为大模型落地的核...
0
评论
分享
coting
算法工程
·
13天前
关注
GRPO:让大模型对齐更高效的优化方法
GRPO是一种用于训练大模型的 对齐优化方法。它的核心目标是:在不依赖复杂的价值函数(value model)的情况下,通过分组比较和相对奖励机制来指导模型学习用户偏好。...
0
评论
分享
coting
算法工程
·
15天前
关注
DPO是怎么通过偏好数据直接优化大模型的?
DPO(Direct Preference Optimization)作为一种新兴技术,提出直接利用人类偏好数据,以简单且高效的方式训练模型,省去了强化学习步骤。...
0
评论
分享
coting
算法工程
·
15天前
关注
一文理解 PPO 的核心机制与大模型中的应用
随着大模型能力不断提升,单纯依赖监督微调难以满足复杂的人类偏好需求。强化学习,尤其是 PPO,成为调优模型生成行为、提升输出质量和对齐性的关键技术。...
0
评论
分享
coting
算法工程
·
17天前
关注
一文理解监督微调(SFT)在大语言模型训练中的作用
随着大规模预训练模型(如 GPT、LLaMA)的兴起,单靠无监督预训练难以满足具体任务需求。 监督微调(SFT)通过在带标签的数据上有针对性训练,使模型更好地适应特定应用场...
0
评论
分享
coting
算法工程
·
17天前
关注
一文弄懂RLHF (基于人类反馈的强化学习)的核心原理
随着大语言模型(LLM)规模和能力飞跃,单纯依赖预训练和监督微调难以让模型完全符合人类期望。 RLHF 通过结合人类反馈和强化学习,显著提升模型的对齐性和输出质量。...
0
评论
分享
coting
算法工程
·
18天前
关注
一文理解提示微调(Prefix Tuning/Prompt Tuning/P Tuning)
随着大语言模型(LLM)规模和能力的提升,传统的全参数微调变得成本高昂且不灵活。 提示微调作为一种新兴的参数高效微调方法,通过调整输入提示(Prompt)而非模型权重,实现...
0
评论
分享
coting
算法工程
·
18天前
关注
一文理解 AdaLoRA 动态低秩适配技术
传统 LoRA 固定低秩大小,难以兼顾所有层的复杂性和任务需求。 AdaLoRA(Adaptive LoRA)创新地引入动态调整秩的机制,根据层的重要性和训练过程自动分配参...
0
评论
分享
coting
算法工程
·
19天前
关注
一文搞懂如何用 QLoRA 高效微调大语言模型
QLoRA(Quantized LoRA)作为结合了量化技术和低秩微调的创新方案,极大降低了显存占用,实现了资源有限设备上对超大模型的高效微调。...
0
评论
分享
coting
算法工程
·
19天前
关注
LoRA详细步骤解析
随着大规模模型的广泛应用,微调大模型的计算和存储成本成为制约因素。LoRA 作为一种参数高效微调(PEFT)技术,通过低秩矩阵分解,仅微调增量部分,有效降低了资源消耗。...
0
评论
分享
coting
算法工程
·
20天前
关注
一文搞懂 LoRA 如何高效微调大模型
随着大规模预训练模型不断增大,模型微调的资源需求和部署复杂度也急剧提升。LoRA作为近年来高效微调的代表方案,因其在显存占用、训练效率和部署便捷性之间取得了平衡,迅速成为大...
0
评论
分享
coting
算法工程
·
22天前
关注
DeepSeek-V3.1来了!
2025年8月21日,DeepSeekV3.1发布,引起了很大的轰动,随后8月22日半导体与人工智能相关板块大涨,当然这两个之间我也不知道有没有关系。...
0
评论
分享
下一页
个人成就
文章被点赞
15
文章被阅读
4,408
掘力值
1,053
关注了
0
关注者
6
收藏集
0
关注标签
23
加入于
2025-05-27