首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ai
订阅
别在晚睡
更多收藏集
微信扫码分享
微信
新浪微博
QQ
24篇文章 · 0订阅
超越传统 RAG:GraphRAG 全流程解析与实战指南
本文以微软 GraphRAG 为例,讲解索引构建、检索流程到实战应用与可视化展示,并与传统 RAG 对比,全面解析 GraphRAG 的优势。
RAG—Chunking策略实战|得物技术
在 RAG 系统中,即便采用性能卓越的 LLM 并反复打磨 Prompt,问答仍可能出现上下文缺失、事实性错误或拼接不连贯等问题。多数团队会频繁更换检索算法与 Embedding模型,但收
✨17种RAG实现方法:全面提升生成质量
引言 RAG(检索增强生成)通过融合外部知识库与LLM生成能力,解决了传统大模型的知识滞后性、幻觉问题。但RAG并非固定架构,而是一套可动态组合的技术体系。本文将拆解三类策略、17种实现方案,
别卷单模态了!YOLO+多模态 才是未来场景实战的“天选方案”
本文系统回顾了YOLO在多模态目标检测领域的最新进展,重点梳理了当前主流研究中如何结合红外、深度图、文本等多源信息,解决单一RGB模态在弱光、遮挡、低对比等复杂环境下的感知瓶颈。文章围绕轻量化多模态融
大模型预训练框架,有多重要?
预训练最常见的误解: "把模型结构写好 → 填上 tokenizer → 用 huggingface 跑起来就算训练了。" —— 错。真要训练大模型,面对的不是“代码能不能跑”,而是。。。
纯本地!零代码!一站式完整数据集准备到模型微调全流程!(一)
不写代码能微调模型吗? 微调的各种参数到底怎么调? 微调的过程要怎么观察? 微调后的模型要怎么用? 怎么评估模型微调的效果? 之前 如何把你的 DeePseek-R1 微调为某个领域的专家? 的微调教
大模型微调全攻略:从LoRA到8bit训练的实战指南
1.SFT 微调训练/LoRA/QLoRA 2.微调的概念与优势 3.全量微调/增量微调/局部微调 4.PEFT 大模型高效微调理论、指令数据集构造方法 5.理解 LoRA 低秩分解/LoRA 微调实
本地部署 Ollama+graphRAG 询问万人敬仰的韩天尊相关经历
最近微软新推出来的技术 graphRAG 相当火爆,我通过学习网上的资料总结出来在本地部署 Ollama+graphRAG 的教程,并且用《凡人修仙传》进行测试。
知识图谱是什么?和AI大模型有什么关系 ?
今天我们探讨两个问题: 第一,知识图谱是什么? 第二,知识图谱和大模型的关系又是什么? 一、知识图谱是什么? 我们先来看第一个问题: 知识图谱是什么? 可以看上面这个图,这个图形表达了如下信息: 张三
LLaMA-Factory 大模型微调超简单,从零开始玩转大模型微调
为什么要使用LLaMA-Factory进行微调? 在处理大模型微调的工作中,我们常常会面临各种棘手的问题。比如,传统的微调方法不仅复杂繁琐,还对技术和资源有着很高的要求,让很多人望而却步。