首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
大模型
芝士AI吃鱼
创建于2024-01-10
订阅专栏
记录大模型相关知识
等 3 人订阅
共14篇文章
创建于2024-01-10
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Token预测的未来:大型语言模型的预训练后操作
大型语言模型 (LLMs) 例如 GPT-4,经常被简单地描述为仅靠概率预测下一个单词的模型。过去我也曾分享过这种观点,以降低人们对这类模型的高期望值。然而,这种看法低估了现代大型语言模型的真正复杂性
树形结构与RAG的完美结合:T-RAG方法在组织内部信息查询中的突破
这篇论文介绍了在企业文档中进行问答的应用场景,并探讨了如何利用大型语言模型(LLM)和检索增强生成(RAG)框架构建一个可靠的应用程序。作者分享了他们使用自定义树结构来表示组织实体层次结构的经验,并将
从模型到复合AI系统的转变
2023年,大型语言模型(LLM)吸引了所有人的注意力,它可以通过提示来执行通用任务,例如翻译或编码。这自然导致人们将模型作为AI应用开发的主要成分而密切关注,所有人都在想新的LLM将带来什么能力。然
RAG评估新增基准
这篇论文介绍了一个名为“HaluEval-Wild”的新基准测试,旨在评估大型语言模型(LLMs)在真实世界环境中的幻觉率。传统的NLP任务如知识密集型问答和摘要等基准测试不足以捕捉用户与LLMs之间
解析学术界AI研究的挑战与机遇:一场未完的讨论
你是学术机构的人工智能研究员吗?你是否担心自己跟不上人工智能发展的步伐?你觉得你在取得人工智能研究突破方面没有(或几乎没有)获得所需的计算和人力资源吗?你并不孤单;我们也有同感。越来越多的人工智能学者
如何通过Vec2Text提升RAG的可解释性
引言 在数字化时代,文本嵌入技术因其在语义搜索、聚类和分类等任务中的高效性而广受欢迎。然而,随着这些技术的应用日益广泛,它们对个人隐私的潜在威胁也逐渐显现。最近,Cornell University的
实践中的(RAG):提升大模型落地效果
引言 在人工智能领域,大型语言模型(LLM)如ChatGPT已经成为我们日常交流和信息处理的重要工具。然而,随着时间的推移,我们对这些模型的期望也在不断提高。为了满足这些期望,研究人员和开发者们一直在
24年首篇离奇论文:加点噪声,RAG效果翻倍?
这篇论文探讨了基于检索增强的语言模型(RAG)系统中的信息检索(IR)组件对系统性能的影响。与传统的大型语言模型相比,RAG系统通过引入外部数据提高了其生成能力。然而,大多数关于RAG系统的研究主要集
编码器与解码器LLM全解析:掌握NLP核心技术的关键!
让我们深入了解:基于编码器和基于解码器的模型有什么区别? 编码器与解码器风格的Transformer 从根本上说,编码器和解码器风格的架构都使用相同的自注意力层来编码词汇标记。然而,主要区别在于编码器
揭秘RAG与语义搜索的异同,你了解多少?
检索增强生成(RAG)和语义搜索都是自然语言处理领域的先进技术,但它们各自服务于不同的目的并以不同的方式运作。以下是两者的比较: 检索增强生成(RAG): 目的: RAG旨在通过整合外部信息来增强大型
如何优化大型语言模型,让AI回应更智能、更准确?
什么是检索增强生成(RAG)? 检索增强生成(RAG)是一种优化大型语言模型输出的过程,它在生成回应之前会参考其训练数据源之外的权威知识库。大型语言模型(LLM)在大量数据上进行训练,使用数十亿参数来
RAG为什么是必不可少的?
检索增强生成(RAG)之所以重要,主要有以下几个关键原因,特别是在提高大型语言模型(LLM)如聊天机器人和其他自然语言处理应用的性能和可靠性方面: 提高准确性和相关性:RAG使LLM能够访问和引用来自
揭秘LoRA与QLoRA:百次实验告诉你如何微调LLM!
LoRA(低秩适应)是目前应用最广泛、参数效率最高的自定义大型语言模型(LLM)微调技术之一。本文不仅介绍了使用QLoRA节省内存的方法,还讨论了选择最佳LoRA设置的实用技巧,为有兴趣应用此技术的读
一文读懂大型语言模型参数高效微调:Prefix Tuning与LLaMA-Adapter
在快速发展的人工智能领域中,高效、有效地使用大型语言模型变得日益重要,参数高效微调是这一追求的前沿技术,它允许研究人员和实践者在最小化计算和资源占用的同时,重复使用预训练模型。