首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AI
seeksky
创建于2026-01-14
订阅专栏
踏浪而行
暂无订阅
共4篇文章
创建于2026-01-14
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
令人深思,为什么需要 RAG ?
为什么需要 RAG 大型语言模型擅长生成,但它们的知识来自训练数据,存在时效性与覆盖面边界。RAG(Retrieval-Augmented Generation)把“检索”与“生成”结合起来:先
语义向量-Embeddings-生成与使用
语义向量 Embeddings 生成与使用 导读 Embeddings 的价值不在于“把文本变成数字”,而在于把语义关系映射到空间距离里:语义越近,向量越近。这让检索、聚类、推荐、去重等任务都能用统一
Transformer 注意力机制与序列建模基础
导读 Transformer 之所以重要,不只是“更强的模型”,而是它用注意力让序列计算可以并行化,并且把“依赖关系建模”变成了可解释、可控制的操作。本文从公式与结构讲清楚核心机制,再落到 PyTor
分词与 BPE 实现(tiktoken)
写分词器不是“把文本切成词”那么简单,而是一套关乎模型输入、计费、日志与安全的工程系统。tiktoken 采用字节级 BPE,并提供严格的特殊 token 管控与多种解码接口,是一套面向生产的分