首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
智泊AI
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2
文章 2
沸点 0
赞
2
返回
|
搜索文章
智泊AI
5小时前
关注
怎么通俗易懂地理解AI大模型微调?一篇大白话文章解释模型微调!
什么是微调? 微调就是在已经训练好的大模型基础上,用你自己的数据继续训练,让模型更符合你的特定需求。 CPT(ContinualPre-Training)继续预训练最基础的...
0
评论
分享
智泊AI
2天前
关注
AI大模型Agent是不是就是各种Prompt的堆叠?
前段时间在AI圈掀起了一个颇具争议的话题:大模型Agent是否仅仅是精心设计的Prompt组合? 以Manus为代表的智能Agent系统,其核心能力是否主要依赖于通过精巧的...
0
评论
分享
智泊AI
5天前
关注
AI大模型中的对齐(Alignment)是什么?为什么要做对齐?
01 大模型的对齐是什么? 简单来说,对齐指的是让大语言模型的行为、输出和决策方式与其设计者(人类操作者)的意图、价值观和指令保持一致的过程。 举个例子: 想象你养了一只非...
0
评论
分享
智泊AI
6天前
关注
为什么说:一体机是阻碍DeepSeek性能最大的绊脚石
一体机是DeepSeek实现高效交付的理想选择吗? 绝非如此,一体机恰恰是限制DeepSeek突破推理能力瓶颈的关键障碍! 为什么这么说? 只因DeepSeek这个模型有点...
0
评论
分享
智泊AI
7天前
关注
Fine-Tuning目前主流的三种微调方式有什么区别?
Fine-tuning 在生成式AI和大语言模型(如GPT、LLaMA)的快速发展与应用中,微调(Fine-tuning)作为模型适配特定任务的核心技术环节,其关键作用毋庸...
0
评论
分享
智泊AI
8天前
关注
什么是LoRA?一篇文章给你讲清楚LoRA(低秩适应)
01 什么是“LORA”? 专业解释 LORA(Low-Rank Adaptation,低秩适应)是一种模型的轻量微调方法,通过向模型的部分层添加可训练的低秩矩阵模块,实现...
0
评论
分享
智泊AI
11天前
关注
模型蒸馏是什么?一文带你搞懂“模型蒸馏”看这篇就够了!
01 什么是模型蒸馏 专业解释: 模型蒸馏是一种知识迁移技术,通过让学生模型学习教师模型的输出(如概率分布或中间特征),在保留关键性能的同时显著降低模型体积和推理开销。 通...
0
评论
分享
智泊AI
12天前
关注
Beam Search是什么?一文讲清AI大模型知识点Beam Search(束搜索)
01 什么是“Beam Search”? 大模型(如 ChatGPT、DeepSeek)在生成回答时,并不是一次性输出整段文字,而是一个词一个词地“逐步吐出”(更准确地说,...
0
评论
分享
智泊AI
13天前
关注
【AI大模型知识点扫盲】Transformer到底是个啥?(说人话版)
智泊AI:中国领先的人工智能(AI)平台和服务团队,致力于推动数字转型与智能升级,通过AI技术赋能未来人才发展。 Transformer架构的整体结构 Transforme...
0
评论
分享
智泊AI
14天前
关注
为什么这个周末你应该搭建一个MCP 服务器?
自AI爆发以来,我还没见过这么好的机会。 如果你是一名程序员、副业者,或者只是在玩AI的,你需要抓住这个机会。 就像偶然闯入一个还没人认领的金矿。 MCP 服务器? 它们是...
1
评论
分享
智泊AI
15天前
关注
一文讲清:AI大模型轻量化的5个主流方法,看完你就懂了!
一、低秩分解 在机器学习中,我们需要用数值的方式表达数据,尤其是在神经网络中,数据和模型参数都表示成张量的形式,而神经网络的计算过程就是这些张量相互作用的过程。 矩阵/张量...
0
评论
分享
智泊AI
19天前
关注
AI大模型中的思维链(chain of Thought, CoT)是什么?看完小白也悟了!
01 什么是思维链? 思维链(Chain of Thought,CoT),让AI像学霸做数学题那样,不让它直接报答案,而是把"解题过程"一步步写出来,使得错误率直降。 我们...
0
评论
分享
智泊AI
20天前
关注
Pre-Training、Fine-Tuning、SFT、LoRA、RLHF之间有什么关系?
Pre-Training 1.什么是 Pre-Training? Pre-Training(预训练)是一种深度学习技术,指的是在大型数据集上对模型进行初步训练,使其学习通用...
0
评论
分享
智泊AI
21天前
关注
什么是注意力机制?什么是自注意力机制?二者有何区别?
引言:今天我们分为两大部分讲AI大模型的知识点,第一个部分是注意力机制,第二个部分是自注意力机制。 一、注意力机制 01 一句话秒懂 注意力机制=让AI学会"抓重点"的魔法...
1
评论
分享
智泊AI
22天前
关注
AI大模型中BERT的Embedding到底是个什么?看完小白也懂了!
一、什么是“Embedding”? Embedding(嵌入)是指把文本(也可能包括图像、视频等其他模态数据)转成能表达语义信息的浮点数向量,向量之间的数学距离可以反映对应...
0
评论
分享
智泊AI
23天前
关注
知识图谱是什么?和AI大模型有什么关系 ?
今天我们探讨两个问题: 第一,知识图谱是什么? 第二,知识图谱和大模型的关系又是什么? 一、知识图谱是什么? 我们先来看第一个问题: 知识图谱是什么? 可以看上面这个图,这...
0
评论
分享
智泊AI
23天前
关注
MoE是什么?一文读懂“混合专家模型(MoE)”看这篇就够了!
简短总结:混合专家模型(MoEs) 与稠密模型相比,预训练速度更快 与具有相同参数数量的模型相比,具有更快的推理速度 需要大量显存,因为所有专家系统都需要加载到内存中 混合...
0
评论
分享
智泊AI
25天前
关注
【写给小白的LLM】AI大模型中的 token 到底是个什么?
相信你只要了解过大模型,就听过token这个词儿,大家在用ChatGPT的API时,是按token计费的。例如,你提问消耗了 100 token,ChatGPT根据你的输入...
0
评论
分享
智泊AI
26天前
关注
AI大模型的温度系数(Temperature)是指什么?
什么是温度系数? 通俗版: 温度系数(Temperature)是控制大模型生成文本随机性和多样性的关键参数。"它通过调整模型输出的概率分布,直接影响生成结果的保守性”或“创...
0
评论
分享
下一页
个人成就
文章被点赞
16
文章被阅读
3,267
掘力值
628
关注了
0
关注者
6
收藏集
0
关注标签
2
加入于
2025-04-22