首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ai
订阅
用户3289495342844
更多收藏集
微信扫码分享
微信
新浪微博
QQ
28篇文章 · 0订阅
大模型推理优化技术-KV Cache
近两年大模型火出天际;同时,也诞生了大量针对大模型的优化技术。本系列将针对一些常见大模型优化技术进行讲解。
一文搞懂 LLM 的 Transformer!看完能和别人吹一年
本文不讨论公式,只解读图表,旨在让更多读者看完就能通俗地、成体系地给身边其他人讲清楚 Transformer 工作原理,从而真正理解它究竟为什么如此火爆。
【AI】浅谈梯度下降算法(理论篇)
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。目前正在学习这方面相关的内容,因此简单谈谈。
RAG实战|8种RAG架构浅析
因为项目的需要,之前研究了一段时间的RAG,于是本文总结 8 种 RAG 架构,对每种架构进行简要介绍,并用 langchain 实现其参考代码。
深度学习(五):误差反向传播法
在四中,采取了数值微分的方式求损失函数关于权重参数的梯度,但是比较耗时间,这一节讲一个能够高效计算权重参数的梯度的方法——误差反向传播法。 一,计算图 计算图指的就是将计算过程用图形表示出来。 计算图
反向传播与梯度下降详解
反向传播(backward propagation,简称BP)指的是计算神经网络参数梯度的方法。其原理是基于微积分中的链式规则,按相反的顺序从输出层到输入层遍历网络,依次计算每个中间变量和参数的梯度。
万能近似定理: 逼近任何函数的理论
我们要找到一个 model function,通过调整它的参数,可以生成任何形状的函数,也就是说这个函数拥有无限的潜力。 我们的目标函数可能没有任何规律,如下图所示: 那么怎么样找到一个 model
最优化大模型效果之 RAG(三):检索的优化策略
优化RAG检索: 检索前:问题重写、子问题生成、Step-Back提示、HyDE。 检索中:元数据过滤、混合检索、Embedding微调、多路召回。 检索后:重排序、去重、内容选择压缩。
医疗AI问答系统实战:知识图谱+大模型的融合应用开发
经过深入的技术调研和实践探索,我发现知识图谱与大模型的融合应用为解决这些难题提供了一条全新的技术路径。知识图谱以其结构化的知识表示能力,为医疗领域的复杂概念关系提供了清晰的建模方式;而大模型则以其强大
二、机器学习基本原理
1、基本数学知识 标量:标量也就是一个单独的数 向量:类似[1,2,3,4]被称之为向量,是一列数;其中可以进行的运算有加法运算以及向量之间做内积 向量加法:i.e. [a1,a2,a3]+[b1,b