首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
GPT
订阅
大模型相关
小嘴叭叭儿
更多收藏集
微信扫码分享
微信
新浪微博
QQ
6篇文章 · 0订阅
大模型RAG(检索、增强、生成)技术 你了解多少
随着大语言模型(LLM)的快速发展,其在文本生成、问答等任务中展现出强大能力。然而,模型的知识局限性、幻觉问题及数据安全需求,催生了检索增强生成(Retrieval-Augmented Generat
最优化大模型效果之 RAG(三):检索的优化策略
优化RAG检索: 检索前:问题重写、子问题生成、Step-Back提示、HyDE。 检索中:元数据过滤、混合检索、Embedding微调、多路召回。 检索后:重排序、去重、内容选择压缩。
Prompt工程全攻略:15+Prompt框架一网打尽(BROKE、COAST、LangGPT)、学会提示词让大模型更高效
Prompt工程全攻略:15+Prompt框架一网打尽(BROKE、COAST、LangGPT)、学会提示词让大模型更高效 0.相关文章推荐 Prompt工程原理篇 大语言模型的预训练[3]之Prom
15K star!超越RAG,让大模型拥有个性化记忆
通过RAG来增强LLM已经是目前很多的首选,但是最近有一个新的开源项目让大家看到了更好的选择的可能。今天我们分享一个开源项目,它号称是RAG的下一代技术,让大模型可以拥有个性化的记忆,它就是:mem0
LangChain:大语言模型的新篇章
近期,大型语言模型(LLM)如GPT系列模型引领了人工智能领域的一场技术革命。开发者们都在利用这些LLM进行各种尝试, LangChain可以极大的可以提升开发LLM的效率.
基于 P-Tuning v2 进行 ChatGLM2-6B 微调实践 | 京东云技术团队
各种微调方法适用于不同的场景和任务。SFT监督微调适用于快速适应目标任务,LoRA适用于减少参数量和成本,P-tuning v2适用于多任务学习,而Freeze适用于提取特定层次的特征。