首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
lighting759
更多收藏集
微信扫码分享
微信
新浪微博
QQ
10篇文章 · 0订阅
深度解读RAG技术发展历程:从基础Naive RAG 到高级Advanced,再到模块化Modular RAG的全面升级
深度解读RAG技术发展历程:从基础Naive RAG 到高级Advanced,再到模块化Modular RAG的全面升级 1.RAG简介 为了引出什么是 RAG,先看一下 LLM 当前存在的问题:幻觉
从 RAG 1.0到RAG 2.0,这次做对了什么?
RAG是目前最流行的补充生成式人工智能模型的方式,最近 RAG 的开创者提出了新的上下文语言模型 (CLM) ,他们称之为“ RAG 2.0 ”。 今天让我们看看RAG2.0是否能够为行业新标准。
RAG(检索增强生成)的演变:初级 RAG、高级 RAG 和模块化 RAG 架构
大型语言模型(LLMs)通过在自然语言任务及其它领域的成功应用,如 ChatGPT、Bard、Claude 等所示,已经彻底改变了 AI 领域。这些 LLMs 能够生成从创意写作到复杂代码的文本。然而
阿里小蜜-电商领域的智能助理技术实践
2015年7月,阿里推出了自己的智能私人助理-阿里小蜜,一个围绕着电子商务领域中的服务、导购以及任务助理为核心的智能人机交互产品。通过电子商务领域与智能人机交互领域的结合,带来传统服务行业模式的变化与体验的提升。
Transformer各层网络结构详解!面试必备!(附代码实现)
1. 什么是Transformer 《Attention Is All You Need》是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN。目前大热…
深入了解浮点运算——CPU 和 GPU 算力是如何计算的
算力最基本的计量单位是 FLOPS,英文 Floating-point Operations Per Second,即每秒执行的浮点运算次数。浮点运算其实就是带小数的加减乘除运算。
突破LLM的边界:解析LLM的局限与LangChain初探
在当今信息爆炸的时代,自然语言处理(NLP)技术的飞速发展为人们提供了前所未有的便利和智能体验。然而,随着大规模预训练语言模型(LLM)的兴起,开发者和消费者们也逐渐发现 LLM 的局限性.
重新思考终端 LLMs 和 Agents
LLM 和 Agent 如火如荼,有哪些用途?当此之时,终端将何往?如何发挥终端优长?笔者给出了自己的预判和建议。
2023年LLM如何入门?请看这篇综述!丨论文解读
📕我们重点关注大型模型,同时排除早期预训练语言模型的内容,特别是,我们的调查讨论了LLM的四个重要方面,即预训练、适应调整、利用和评估。