首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
Batistuta
更多收藏集
微信扫码分享
微信
新浪微博
QQ
16篇文章 · 0订阅
关于RAG你不得不了解的17个技巧
还是那句老话: 这篇文章适合那些在过去一个月里刚刚构建了第一个LLM(大语言模型)应用程序,并开始考虑如何将其产品化的朋友们。我们将介绍17种技术,帮助你们避免在RAG开发过程中重复踩坑——毕竟,在同
干货!带你了解7种检索增强生成 (RAG) 技术
1. 简单RAG(Simple RAG) 在简单RAG中,大型语言模型(LLM)接收用户查询,在向量存储库中进行相似性搜索或在知识图谱中进行关系搜索,然后基于检索到的信息生成答案。 工作原理: 用户查
GraphRAG、Naive RAG框架总结主流框架推荐(共23个):LightRAG、nano-GraphRAG、Fast-GraphRAG、Dify、RAG
设想你正致力于构建一个智能问答系统,该系统旨在从庞大的知识库中迅速而精确地提取关键信息,并据此生成自然流畅的回答。然而,随着数据规模的不断扩大,系统面临着严峻的挑战:检索效率逐渐下滑,生成内容的质量亦
Magentic-One:什么?我居然用AI成功预测了中国VS巴林的比赛结果?!
结论 首先show结论,笔者确实在比赛开打时间之前,通过Magentic-One预测中国VS巴林的比赛胜率结果,预测成功! China's probability of winning the awa
5分钟手把手系列(一):使用Mac Book Pro本地部署大模型(Ollama+Llama3.1_8B+Docker+OpenWebUI)
背景 随着行业内越来越多的AI产品落地,很多同学都对AI技术产生浓厚的兴趣,但苦于目前动作几十G上百G的大模型,并且手上的消费级电脑也无法满足各种模型部署运行要求,本文就是基于此背景,介绍如何使用Ma
5分钟手把手系列(二):本地部署Graphrag(Pycharm+Ollama+LM Studio)
背景 大型语言模型(LLM)的前沿研究中,一个核心挑战与机遇并存的领域是扩展它们的能力,以解决超出其训练数据范畴的问题,如目前比较火热的AI Agent的解决方案,使得LLM有了自己的分析决策能力,并
5分钟手把手系列(三):本地编写一个AI Agent(Langchain + Ollama)
背景 随着AI技术的不断升级,AI智能体的应用场景也非常多应用场景下不断普及与落地,很多线上零代码编排平台也如雨后春笋一般的普及开来,那作为天生爱专研的阿里人,肯定不满足于各种封装好的平台工具使用,也
5分钟手把手系列(四):如何微调一个大模型(Colab + Unsloth)
背景 随着行业内越来越多的通用大模型进行开源,目前huggingface上的模型数量已达93w之多,相信过不了几天就会突破百万甚至千万,大家也是基于业内的开源大模型,针对某些特殊使用场景(如问题回答、
5分钟手把手系列(五):本地编写一个RAG系统(Qwen2.5-14b+LlamaIndex + Ollama)
背景 大模型应用搭建过程中,为什么要使用RAG技术,可以参考《5分钟手把手系列(二):本地部署Graphrag(Pycharm+Ollama+LM Studio)》 RAG的优势 外部知识的利用: R
5分钟手把手系列(七):MAC本地微调大模型(MLX + Qwen2.5)
背景 如前作《5分钟手把手系列(四):如何微调一个大模型(Colab + Unsloth)》所言,截止至发稿日,huggingface上的各类模型已经突破百万(105w),基于各种最新基座模型进行微调