首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LearnLLM_AI
掘友等级
LearnLLM.AI
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
93
文章 93
沸点 0
赞
93
返回
|
搜索文章
最新
热门
10分钟了解什么是多模态大模型(MM-LLMs)
多模态(Multimodality)是指集成和处理两种或两种以上不同类型的信息或数据的方法和技术。在机器学习和人工智能领域,多模态涉及的数据类型通常包括但不限于文本、图像、视频、音频和传感器数据。
10分钟搞清楚为什么Transformer中使用LayerNorm而不是BatchNorm
Normalization技术旨在应对内部协变量偏移问题,它的核心在于将数据调整到一个统一的标准,以便进行有效的比较和处理。 为了实现这一目标,***我们需要确保参与归一化的数据点在本质上是可比的。
GraphRAG: 解锁大模型对叙述性私有数据的检索能力(中文翻译)
LLM 面临的最大挑战(也是最大的机遇)或许是将其强大的能力扩展到解决训练数据之外的问题,本文中,我们介绍了微软研究院创建的 GraphRAG,这是增强 LLM 能力的一项重大进步。
搭配Knowledge Graph的RAG架构
在实际文本中,chunk与chunk之间是存在关联的,而RAG技术并未充分考虑到这种关联性。为了解决这一问题,我们可以引入知识图谱,将文档中的chunk之间的关系表示为图结构
向量数据库拥抱大模型
向量数据库的崛起与大模型时代的需求紧密相关,它为大模型提供了外部知识库的支持,增强了生成能力,支持向量嵌入,并解决了数据局限问题。
vLLM: 使用PagedAttention轻松、快速且廉价地提供LLM服务(中文翻译)
在学习vLLM和PagedAttention的过程中,我发现了很多非常优质的资料。其中最有价值应该是这篇vLLM的官方博客,我认为它写得非常好,因此尝试将其翻译,希望这能帮助到更多需要相关信息的人。
Open AI的o1用强化学习突破LLM推理极限,我们用强化学习的思想解决不知道吃什么的选择困难症
OpenAI 正式公开一系列全新 o1大模型,秘密武器在于强化学习和思维链。OpenAI 的o1大规模强化学习算法,教会模型如何在数据高度有效的训练过程中利用其思想链进行高效思考。
Transformer架构的GPU并行和之前的NLP算法并行有什么不同?
随着时间的推移,大型语言模型(LLM)开始崭露头角,这些模型拥有庞大的参数量,训练过程也变得漫长而复杂。为了有效应对这些挑战,使用多张GPU进行训练变得司空见惯,而并行计算技术也变得不可或缺
智能涌现和AGI的起源
在人工智能领域,智能涌现通常指的是随着AI模型规模的增大,如参数数量的增加,模型开始展现出一些预先没有被明确编程的能力或行为。
Agent设计范式与常见框架
智能代理是指能够在环境中感知、推理并采取行动以完成特定任务的系统。在大型语言模型(LLMs)的背景下,Agent范式通常涉及到如何利用这些模型来提升代理的规划、决策和执行能力。
下一页
个人成就
文章被点赞
129
文章被阅读
60,278
掘力值
1,862
关注了
0
关注者
43
收藏集
0
关注标签
4
加入于
2024-04-23