首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
智泊AI
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 3
沸点 0
赞
3
返回
|
搜索文章
智泊AI
6小时前
关注
建议所有初学者都这样去微调大模型!
SFT 先调 prompt,保证让模型可以按照你想输出的样式先输出。如果怎么调都不行建议换模型,说明能力不行。 正常来说,通过prompt至少有20%以上的答案是正确的,才...
0
评论
分享
智泊AI
1天前
关注
预测也用上大模型了!时间序列预测是什么?
一、什么是时间序列预测? 对于时间序列预测不太了解的小伙伴,这里有必要让大家快速入个门。 就从一道简单的预测题开始吧,请听题:小明是一个小学生,最近3次考试的数学成绩依次是...
0
评论
分享
智泊AI
2天前
关注
怎么判断是自己prompt写的不够好?还是基座模型能力不够?
原作者:归来仍是少年 在大模型技术实际部署时,一个极具实践价值的核心问题在于:当前输出效果未达预期,究竟源于Prompt设计缺陷,还是模型固有能力的局限? 这一判断至关重要...
0
评论
分享
智泊AI
4天前
关注
一文讲清:多模态学习:多模态融合 + 跨模态对齐
多模态学习(Multimodal Learning)作为一项关键技术,通过综合处理文本、图像、音频、视频等多种数据模态,显著增强了模型对复杂信息的解析能力。 其本质在于发挥...
0
评论
分享
智泊AI
5天前
关注
循环神经网络RNN是什么?终于有人讲清楚了!
一、循环神经网络基本概念 循环神经网络(RNN)作为人工神经网络的一种,其核心特性在于能够处理具有时序依赖的数据。 与传统神经网络不同,常规神经网络(如卷积神经网络)通常...
0
评论
分享
智泊AI
6天前
关注
什么是注意力机制?什么是自注意力机制?二者有何区别?
引言:今天我们分为两大部分讲AI大模型的知识点,第一个部分是注意力机制,第二个部分是自注意力机制。 一、注意力机制 01 一句话秒懂 注意力机制=让AI学会"抓重点"的魔法...
2
评论
分享
智泊AI
7天前
关注
一文讲清:从语言学到深度学习NLP自然语言处理
基础概念 20世纪60年代,机器怎么理解自然语言 上图是早期对自然语言处理的理解 自然语言处理(NLP)因对人类语言的计算建模与分析需求日益增长而备受关注。其应用场景已覆盖...
0
评论
分享
智泊AI
8天前
关注
一文讲清:AI大模型中AI Agent的定义、分类及发展趋势
一、AI大模型的定义与分类 AI大模型(Large AI Models / Large-scale AI Models) 是指拥有亿级以上参数的深度学习模型。 AI大模型利...
0
评论
分享
智泊AI
9天前
关注
这是一篇写给AI大模型入门的新手小白手册(附文档)
学AI大模型也有一段时间了,之前学大模型一直都是东一榔头,西一棒槌,这学一点那学一点,网上很多名义上说是系统化大模型教程的,到后面也是零零散散,拼拼凑凑的教程,我花了几个月...
0
评论
分享
智泊AI
12天前
关注
一文讲清:深度学习——自注意力机制是什么?
在传统神经网络架构中,权重系数的计算通常依赖于X与Y的关联性建模,但自注意力机制提出了一种创新范式。 该机制能够更有效地捕捉输入序列X内部各元素间的动态关联,并量化这些关联...
0
评论
分享
智泊AI
13天前
关注
一文讲清:MoE混合专家模型是什么?
在大模型技术快速发展的今天,模型规模的不断扩展已成为推动性能提升的核心因素。但传统的"密集"(Dense)架构,其每次推理都需调用全部参数,正面临着计算成本和能耗的巨大瓶颈...
0
评论
分享
智泊AI
14天前
关注
大语言模型如何微调(Fine-tuning)?
从GPT3演进到ChatGPT,从GPT4赋能GitHub Copilot的发展历程中,微调技术发挥了关键作用。 本文将系统解析微调(fine-tuning)的核心概念、实...
0
评论
分享
智泊AI
15天前
关注
为什么需要垂直领域的SFT微调?垂直领域SFT微调怎么做?
随着人工智能的日益火爆,大语言模型(LLM)的应用正变得无处不在。在垂直领域的SFT微调(Supervised Fine-Tuning)作为提升模型专业能力的关键技术,更是...
0
评论
分享
智泊AI
16天前
关注
一文讲清:Embedding向量嵌入是什么?
在RAG应用开发中,第一步就是对于文档进行chunking,chunk质量会直接决定整个RAG检索的质量。 过去,行业通常会采用先chunking再embedding,最后...
2
评论
分享
智泊AI
18天前
关注
AI圈炸锅了!大模型的下一片蓝海,彻底爆发了!
说真的,这两年身边做前端、后端、C++、移动开发的同事纷纷转向大模型,难免让人感慨。记得以前我们一起折腾SSM框架、解决浏览器兼容性问题、优化SQL查询,还觉得这些技能能稳...
0
评论
分享
智泊AI
19天前
关注
Fine-tuning(微调/精调)是什么?看这篇就够了!
啥是微调?为啥要微调?什么时候微调? Fine-tuning(微调/精调) 指在预训练模型上,用特定任务的数据进行额外训练,微调模型参数,使其适应新任务。 预训练模型: 已...
1
评论
分享
智泊AI
20天前
关注
一文讲清:传统RAG和Agentic RAG实战差异
在大型语言模型(LLM)深度融入各行业的当下,检索增强生成(Retrieval-Augmented Generation,RAG)技术已成为优化 LLM 知识精准度与时效性...
0
评论
分享
智泊AI
22天前
关注
AI大模型八股 | 多模态RAG怎么做?
多模态RAG综述 简介:《Ask in Any Modality: A Comprehensive Survey on Multimodal Retrieval-Augme...
0
评论
分享
智泊AI
23天前
关注
为什么LLM推理要分成Prefill和Decode两个阶段?
一句话解释: Prefill 和 Decode 的分工 大语言模型生成文本的过程本质上是给定上下文,逐词预测下一个词。但在实现上,这个过程被明确地分成两个阶段: 为什么不能...
0
评论
分享
智泊AI
26天前
关注
一文讲清:预训练(Pre-Training)、微调(Fine-Tuning)是什么?
预训练和微调是现代AI模型的核心技术,通过两者的结合,机器能够在处理复杂任务时表现得更为高效和精准。 预训练为模型提供了广泛的语言能力,而微调则确保了模型能够根据特定任务进...
0
评论
分享
下一页
个人成就
文章被点赞
101
文章被阅读
40,627
掘力值
2,990
关注了
0
关注者
61
收藏集
0
关注标签
2
加入于
2025-04-22