首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
用户4617575247065
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
10
文章 10
沸点 0
赞
10
返回
|
搜索文章
最新
热门
Redission 分布式锁学习
Redisson 实现分布式锁的「阻塞等待」和「锁释放通知」机制,核心依赖于 Redis 的 Pub/Sub(发布/订阅)功能 和 Java 的并发工具(如 Semaphore)。整个
MRR@10、Recall@10、Recall_cap@10、nDCG@10指标的含义
在Embedding模型评测中常用的这四个以@10为后缀的指标。这些指标主要用于评估模型在检索(Retrieval)任务中的性能,例如:给定一个查询(Query),模型需要从一个大文档库中找出
大模型的Top-k, Top-p, Temperature参数含义
大模型的Top-k, Top-p, Temperature参数含义大模型的Top-k, Top-p, Temperature参数含义
小白也能懂---相关性二分类模型(Relevance Classifier)模型的相关的基本知识
我将用一个完整的、具体的例子,一步步展示 Qwen-Rerank 模型的整个处理过程,包括输入文本的分词细节、模型计算、分数提取和转化过程。我们假设使用 Qwen1.5-Reranker 模型
举例子讲解Transformer Decoder层流程
专注讲解一个完整的、独立的Decoder架构(比如在GPT这类纯Decoder模型中)。这次用最直白的语言和具体数字例子,追踪一个词向量从输入到输出的全过程。 任务: 用Decoder
小白也能懂---Transformer中Look-Ahead Mask 的实现
我们来用最真实的计算过程拆解下三角掩码矩阵(Look-Ahead Mask)到底做了什么,如何确保预测时模型只能看前面的词,不能看自己和未来的词。我们用生成句子 “我爱吃苹果” 中第三个词
小白理解transformer里的前馈神经网络
## 小白也能懂的 Transformer 前馈神经网络 (FFN) 详解 想象一下你在组装一辆玩具车。Transformer 模型就像这辆车的制造工厂流水线。
sglang的KV缓存
好的,我们来用一个具体的文本生成例子,结合KV缓存的工作原理,详细解释为什么只有前缀缓存(本质是KV缓存),而不能缓存Q(Query)。我们将一步步拆解Transformer生成文本的过程。 案例背景
lora微调
LoRA微调技术(与Qwen3 Embedding模型相关),并用具体例子说明: 🔧 一、LoRA是什么? LoRA(低秩适应) 是一种高效微调大模型的技术。核心思想是:
embedding向量索引之---IVFxPQy(IVFx + PQy)
IVFxPQy:倒排乘积量化详解 IVFxPQy(倒排乘积量化),这是工业界应用最广泛的ANN(近似最近邻)解决方案。结合Faiss代码示例,深入剖析其工作原理和参数配置。
下一页
个人成就
文章被点赞
5
文章被阅读
1,128
掘力值
252
关注了
2
关注者
0
收藏集
14
关注标签
20
加入于
2021-03-23