首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AICAT
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
纠正大模型的“废话偏见”:阿里提出TCER,无需外部裁判即可自我优化
大语言模型的对齐(Alignment)技术,尤其是经过监督微调(SFT)之后的强化学习(Reinforcement Learning, RL),已成为提升模型能力、使其行为更符合人类期望的关键步骤。然
让主题模型“心领神会”:GCTM-OT如何用目标提示与最优传输终结跑偏话题
主题模型(Topic Modeling)自诞生以来,一直是自然语言处理(NLP)领域中从海量文本中挖掘潜在语义结构的核心工具。从经典的潜在狄利克雷分配(LDA)到近年来基于神经网络的各种变体,其核心目
Meta新研究:教小模型学会“自我审视”,搞不定就向大模型“摇人”
大语言模型(LLM)的发展正面临一个核心的矛盾: একদিকে是能力超群、但在计算和成本上都堪称“吞金兽”的巨型模型,另一边则是轻量高效、却在复杂任务上表现不稳定的“小模型”。我们能否拥有一个兼具两者
微软新范式:让大模型“想得多、说得准”,事实性最高提升13%
大语言模型(LLM)在处理复杂推理任务时已展现出强大能力,但一个顽固的“幻觉”问题始终是其通往现实世界应用道路上的巨大阻碍。 尤其在需要生成长篇幅回答时,模型内部微小的错误会像滚雪球一样不断累积,最终
告别固定秩LoRA:Flexi-LoRA实现输入自适应,参数减少70%,性能反超
参数高效微调(Parameter Efficient Fine Tuning, PEFT)技术,特别是以LoRA(Low Rank Adaptation)为代表的方法,已成为在特定任务上定制和部署大语
字节跳动 Seedance 2.0 技术解读:不止文生视频,更是驾驭真实世界复杂性的多模态引擎
引言:当视频生成告别“开盲盒” ArXiv URL:http://arxiv.org/abs/2604.14148v1 在生成式 AI 的浪潮之巅,视频生成无疑是最受瞩目的技术前沿之一。然而,长期以来
Web Agent 学会“举一反三”:微软新框架 WebXSkill,让 AI 自主上网成功率飙升 12.9%
大型语言模型(LLM)驱动的自主 Web Agent,正朝着自动完成复杂网络任务的理想迈进。然而,在面对包含多个步骤、横跨不同页面的长流程工作时,目前的 Agent 依旧显得力不从心,其表现脆弱且难以
英伟达开源Nemotron-3 Super:推理提速7.5倍的Mamba-Transformer混合专家模型
在追求更强大型语言模型的道路上,参数规模的增长似乎永无止境。然而,巨大的模型也带来了高昂的推理成本和缓慢的响应速度,成为其在真实世界应用中落地的核心瓶颈。如何构建一个既具备百亿甚至千亿级参数的强大能力
只让“活跃”Token做注意力:LoSA让扩散模型长文本推理加速4倍
在自回归(Autoregressive)模型逐字生成文本的范式之外,扩散语言模型(Diffusion Language Models, DLMs)正作为一股新兴力量崛起。它们通过类似图像生成的“去噪”
Transformer的深度不是摆设:微软揭示模型如何为难题“预留”算力
随着大型语言模型(LLM)的层数不断堆叠,一个根本性的问题也浮出水面:更多的深度是否带来了更强的智能,还是仅仅是参数量的暴力堆砌?一些研究认为,Transformer 模型的后半部分对最终输出的贡献微
下一页
个人成就
文章被阅读
344
掘力值
185
关注了
0
关注者
0
收藏集
0
关注标签
0
加入于
2026-04-15