首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
菜鸟魔王
掘友等级
一个没有真才实学的男孩。文质彬彬又如何,学富五车又怎样,若不能因真理而得自由,因真相而得分享,知识越多反而越昏庸。
获得徽章 27
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2.2K
文章 2K
沸点 229
赞
2.2K
返回
|
搜索文章
赞
文章( 2K )
沸点( 229 )
Advanced RAG 03:运用 RAGAs 与 LlamaIndex 评估 RAG 应用
作者 | Florian June 编译 | 岳扬 🚢🚢🚢欢迎小伙伴们加入AI技术软件及技术交流群,追踪前沿热点,共探技术难题~ 如果你已经为某个真实业务系统开发了检索增强生成(RAG)应用程序,可能
Advanced RAG 02:揭开 PDF 文档解析的神秘面纱
作者 | Florian June 编译 | 岳扬 对于 RAG 系统而言,从文档中提取信息是一种不可避免的情况。确保能够从源文件中有效地提取内容,对于提高最终输出的质量至关重要。 切勿低估这一流程的
LLM 推理优化探微 (4) :模型性能瓶颈分类及优化策略
作者 | Pierre Lienhart 编译 | 岳扬 在上一篇文章,我们深入探讨了 KV 缓存的相关优化方法。这篇文章我们将转变方向,探索可能影响机器学习模型速度的各种性能瓶颈。本文所介绍的内容广
LLM 推理优化探微 (3) :如何有效控制 KV 缓存的内存占用,优化推理速度?
本文是该系列文章的第三篇,作者的观点是:多头注意力(MHA)模型的 KV 缓存确实会消耗大量 GPU 内存,并且很容易增长到比模型权重还大的规模, KV 缓存大小的控制对于优化大模型的推理至关重要。
发掘非结构化数据价值:AI 在文档理解领域的现状与未来
在当今这个由数据主导的时代,我们被海量多样的信息所环绕,但大部分数据都以非结构化的形式存在,诸如文档、电子邮件、合同等,这使得从中提取有价值的信息成为一大挑战。
LoRA 及其衍生技术总览:An Overview of the LoRA Family
我们今天为大家带来的文章,介绍了众多具有代表性的 LoRA 改进方法:LoRA+ 通过为两个矩阵引入不同的学习率提高训练效率;VeRA 和 LoRA-FA 通过训练更少的参数降低计算量;LoRA-dr
Advanced RAG 01:讨论未经优化的 RAG 系统存在的问题与挑战
自 2023 年以来,RAG 已成为基于 LLM 的人工智能系统中应用最为广泛的架构之一。由于诸多产品的关键功能严重依赖RAG,优化其性能、提高检索效率和准确性迫在眉睫,成为当前 RAG 相关研究的核
回县城躺平,感觉我的人生过得好失败
从春节前到现在,一个半月没更新了,做啥都提不起劲来。 越来越感觉我的人生过的好失败。 去年我爸因为癌症去世了,家里的门头房用不到了,就想卖掉,找好了买家,价格谈了 140 万。 当时想买我们这个房子的
LoRA:语言模型微调的计算资源优化策略
随着数据量和计算能力的增加,大模型的参数量也在不断增加,同时进行大模型微调的成本也变得越来越高。全参数微调需要大量的计算资源和时间,且在进行切换下游任务时代价高昂。 本文作者介绍了一种新方法 LoR
LLM 模型融合实践指南:低成本构建高性能语言模型
随着大语言模型技术的快速发展,模型融合成为一种低成本但高性能的模型构建新途径。本文作者 Maxime Labonne 利用 mergekit 库探索了四种模型融合方法:SLERP、TIES、DARE和
下一页
个人成就
文章被点赞
2,585
文章被阅读
300,549
掘力值
11,073
关注了
56
关注者
267
收藏集
1
关注标签
21
加入于
2021-03-11