首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
智泊AI
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 3
沸点 0
赞
3
返回
|
搜索文章
智泊AI
2月前
关注
世界模型是什么?世界模型和大模型有什么区别?它是怎么工作的?
爆爆爆!李飞飞的World Labs居然融资2.3亿美元! 要知道,这个被称为"世界模型"的技术,正在成为AI界的新风口。 谷歌、英伟达、OpenAI这些巨头都在疯狂投入,...
0
评论
分享
智泊AI
2月前
关注
AI大模型的CUDA是什么?CUDA的运行机制是什么?
1、什么是CUDA? CUDA(Compute Unified Device Architecture)是由 NVIDIA 开发的一种并行计算平台和编程模型。 它的主要目标...
0
评论
分享
智泊AI
2月前
关注
为什么LLM推理要分成Prefill和Decode两个阶段?
一句话解释: Prefill 和 Decode 的分工 大语言模型生成文本的过程本质上是给定上下文,逐词预测下一个词。但在实现上,这个过程被明确地分成两个阶段: 为什么不能...
0
评论
分享
智泊AI
2月前
关注
大语言模型LLM底层技术原理到底是什么?大型语言模型如何工作?
1.什么是大型语言模型? 大型语言模型,也称为 预训练模型 ,是一种 使用大量数据来学习语言特征 的人工智能。这些模型用于生成基于语言的数据集,并可用于各种任务,例如语言理...
0
评论
分享
智泊AI
2月前
关注
怎么样才能通俗易懂的理解什么是RAG?以及RAG的工作原理?
01 什么是“RAG”? 大模型很聪明,但也有“短板” 上下文长度有限 比如 deepseek-r1 满血版的上下文上限是 128K tokens不能无限输入文本,超过了它...
1
评论
分享
智泊AI
2月前
关注
视觉大模型VLM到底需要什么样的数据?这些数据又是怎么来的?
目录: 一、为什么说 VLM 的灵魂是数据? 二、VLM需要什么样的数据? 1.通用图文对 2.OCR 数据(文字识别) 3.Visual Grounding & Coun...
0
评论
分享
智泊AI
2月前
关注
预训练模型(BERT)是什么?是基于Transformer的双向编码器吗?
一、BERT的本质 BERT架构: 作为预训练语言模型的代表,其核心由多层Transformer编码器构成。 该架构整合了Tokenization技术、多元Embeddin...
0
评论
分享
智泊AI
2月前
关注
一文说清:MCP 的9种架构设计模式剖析
MCP充当着AI应用与能力(包括tools、prompts、resources等)的通用桥梁,其作用就好比USB-C接口为各类电子设备建立了统一的连接标准。 MCP通过引入...
1
评论
分享
智泊AI
3月前
关注
这是一篇写给想入行AI大模型新手的建议和分享,刷到少走几年弯路!干货满满!
随着AI大模型的爆火,在全球范围内引发了一场AI“狂飙”,也在业界点燃了一场百模大战。 基于近两年我在大模型领域的实践经历,想为在校学生/行业新人提供一些转型到大模型领域的...
0
评论
分享
智泊AI
3月前
关注
Rerank是什么?为什么 RAG 一定需要 Rerank?
01 “RAG”的检索召回流程(快速回顾) 当你向 RAG 系统提出一个问题,系统会: 使用 Embedding 模型 将问题转换为向量。 在向量数据库中检索语义相近的文本...
0
评论
分享
智泊AI
3月前
关注
Transformer是啥(说人话版),看完这篇你就悟了!
Transformer架构的整体结构 Transformer是一种专门处理序列数据(比如句子)的深度学习模型。 它的核心是个叫“自注意力机制”(Self-Attention...
1
评论
分享
智泊AI
3月前
关注
RLHF是什么?为什么需要RLHF?RLHF的关键流程是什么?
01 RLHF是什么? RLHF 是一种结合强化学习(Reinforcement Learning)和人类反馈(Human Feedback)的技术,用于优化大语言模型(如...
0
评论
分享
智泊AI
3月前
关注
Transformer里的QKV到底是从哪里来的?
提问:查了很多教程,也仔细看了Transformer的原始论文,大家都在讲Q、K、V矩阵怎么做点积和softmax得到注意力权重,但所有材料都默认我们知道这些Q、K、V矩阵...
0
评论
分享
智泊AI
3月前
关注
多模态大语言模型(MLLM)为什么用Q-Former结构的变少了?
DeCo: Decoupling Token Compression from Semantic Abstraction in Multimodal Large Langu...
0
评论
分享
智泊AI
3月前
关注
什么是Agentic RAG?和RAG又有什么区别?
四张图搞懂 RAG、AI Agent、Agentic RAG! RAG + Agents= Agentic RAG Agentic RAG 描述了一种基于 AI Agent...
0
评论
分享
智泊AI
3月前
关注
AI大模型面试:MoE训练是选EP还是选TP?
MOE训练用EP还是TP? 最近面试中被问到: 为什么在 MOE训练中使用_ExpertParallelism(EP)而不是TensorParallelism(TP)? 我...
0
评论
分享
智泊AI
3月前
关注
知识图谱+大模型是怎么样的?一篇文章让你通俗易懂理解!
01 知识图谱与大模型的特点和互补性 知识图谱的独特性: 知识组织:它通过实体及其关联关系构建的三元组结构,系统性地呈现了知识体系的拓扑形态。 数据可信度:知识图谱整合的信...
0
评论
分享
智泊AI
3月前
关注
怎么通俗易懂地理解AI大模型微调?一篇大白话文章解释模型微调!
什么是微调? 微调就是在已经训练好的大模型基础上,用你自己的数据继续训练,让模型更符合你的特定需求。 CPT(ContinualPre-Training)继续预训练最基础的...
11
评论
分享
智泊AI
3月前
关注
AI大模型Agent是不是就是各种Prompt的堆叠?
前段时间在AI圈掀起了一个颇具争议的话题:大模型Agent是否仅仅是精心设计的Prompt组合? 以Manus为代表的智能Agent系统,其核心能力是否主要依赖于通过精巧的...
0
评论
分享
智泊AI
3月前
关注
AI大模型中的对齐(Alignment)是什么?为什么要做对齐?
01 大模型的对齐是什么? 简单来说,对齐指的是让大语言模型的行为、输出和决策方式与其设计者(人类操作者)的意图、价值观和指令保持一致的过程。 举个例子: 想象你养了一只非...
0
评论
分享
下一页
个人成就
文章被点赞
58
文章被阅读
20,252
掘力值
1,858
关注了
0
关注者
28
收藏集
0
关注标签
2
加入于
2025-04-22