稀土掘金 稀土掘金
    • 首页
    • AI Coding
    • 数据标注 NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
  • 全部
  • 程序员
  • 后端
  • 面试
  • 前端
  • 人工智能
  • Linux
  • 资讯
  • LLM
  • 产品
  • 展开
  • 全部
  • 程序员
  • 后端
  • 面试
  • 前端
  • 人工智能
  • Linux
  • 资讯
  • LLM
  • 产品
  • C++
  • 架构
  • 游戏
  • 开源
  • Trae
  • 产品经理
  • 暂无数据
    • 推荐
    • 最新
  • GPU 应该怎么选择?写给 AI 工程师的 GPU 选型指南
    作者 | Alex Razvant 编译 | 岳扬 大多数 AI 工程师都将 NVIDIA GPU 作为其 AI 工作负载的计算平台。不过,很多人只知道 GPU 叫什么名字,却不知道要让一个 AI 系
    • Baihai_IDP
    • 30
    • 点赞
    LLM 人工智能 面试
    GPU 应该怎么选择?写给 AI 工程师的 GPU 选型指南
  • 【LLM】低秩矩阵LoRA的使用指南
    为什么LoRA中低秩矩阵是一个优势? 前一篇文章我们在讨论 Attention 矩阵时说“满秩好,低秩意味着能力坍塌”,但到了 LoRA(Low-Rank Adaptation)这里,怎么“低秩”反而
    • xincheng_q
    • 48
    • 1
    LLM
    【LLM】低秩矩阵LoRA的使用指南
  • Claude Code中的Commands→Skills→Agents是进阶路径?你可能理解错了
    作者 | Ilia Karelin 编译 | 岳扬 “我是该用 Command、Skill 还是 Agent 来处理这件事?”老实说,你以前肯定问过自己这个问题。 答案总是那一套。“Commands
    • Baihai_IDP
    • 43
    • 点赞
    人工智能 LLM
    Claude Code中的Commands→Skills→Agents是进阶路径?你可能理解错了
  • 强化学习比你想象的还要更为低效...
    作者 | Dwarkesh Patel 编译 | 岳扬 最近,人们[1]一直在讨论[2]:在强化学习(RL)中生成单个样本所需的计算量(FLOPs)远高于有监督学习(supervised learni
    • Baihai_IDP
    • 38
    • 点赞
    人工智能 LLM
    强化学习比你想象的还要更为低效...
  • 微调后的Qwen3-4B在多项基准测试上战平或胜过GPT-OSS-120B
    作者 | Distil Labs 编译 | 岳扬 01 TL;DR 经过微调的小型语言模型(SLM)可以胜过规模大得多的模型:微调后的 Qwen3-4B 在 8 项基准测试中的 7 项上表现能够超越或
    • Baihai_IDP
    • 49
    • 1
    人工智能 LLM 开源
    微调后的Qwen3-4B在多项基准测试上战平或胜过GPT-OSS-120B
  • Skills 与延迟加载工具定义的 MCP,目前哪个更高效、稳定和可控?
    作者 | Armin Ronacher (作者为 Flask、Jinja2 等开源项目的创建者) 编译 | 岳扬 我正把所有的 MCP 都迁移到 Skills 上,包括之前还在使用的最后一个:Sent
    • Baihai_IDP
    • 61
    • 点赞
    人工智能 LLM
    Skills 与延迟加载工具定义的 MCP,目前哪个更高效、稳定和可控?
  • 英伟达与 OpenAI、甲骨文:亦敌亦友的 AI 三角
    作者 | Philippe Oger 编译 | 岳扬 过去 48 小时,我完全沉浸在对英伟达 2026 财年第三季度财报[1]的深度研究中。如果你只看新闻标题,一切看起来都完美无缺:营收同比增长 62
    • Baihai_IDP
    • 45
    • 点赞
    人工智能 LLM NVIDIA
    英伟达与 OpenAI、甲骨文:亦敌亦友的 AI 三角
  • 智能体的构建依然是个“脏活累活”...
    作者 | Armin Ronacher 编译 | 岳扬 我觉得现在可能是时候写一写最近学到的一些新东西了。其中大部分内容会围绕构建智能体(agents)展开,也会稍微分享一点关于使用具有智能体特性的编
    • Baihai_IDP
    • 101
    • 1
    人工智能 LLM 程序员
    智能体的构建依然是个“脏活累活”...
  • 如何减少单智能体输出结果的不确定性?利用并行智能体的“集体智慧”
    作者 | Ben Redmond 编译 | 岳扬 智能体编码(Agentic coding)存在一个问题 —— 输出结果的不稳定性(variance)。如果单智能体的运行机制本身就在设计上限制了性能上
    • Baihai_IDP
    • 49
    • 点赞
    人工智能 LLM 面试
    如何减少单智能体输出结果的不确定性?利用并行智能体的“集体智慧”
  • DigitalOcean携手Persistent达成战略合作,让 AI 更亲民、更易扩展
    DigitalOcean 与 Persistent 战略合作,通过 SASVA™ 平台与 Gradient AI 云,降低 AI 成本超50%,推动企业高效、安全地规模化应用 AI。
    • DigitalOcean
    • 17
    • 点赞
    LLM 人工智能
  • 靠更换嵌入模型,该产品将 RAG 延迟降低了50%
    作者 | MyClone Engineering Team 编译 | 岳扬 在 MyClone.is,我们的使命是打造真正个性化的数字人格。我们通过检索增强生成(RAG)技术,为每位用户构建一个内容丰
    • Baihai_IDP
    • 85
    • 点赞
    人工智能 LLM 面试
    靠更换嵌入模型,该产品将 RAG 延迟降低了50%
  • 你说的 CUDA 到底是哪个 CUDA?一文理清那些让人混淆的术语和版本号
    作者 | James Akl 编译 | 岳 扬 CUDA 的术语存在严重的多重含义问题:“CUDA” 一词本身至少指代五种不同的概念,“driver” 在不同上下文中含义也不同,而各种工具报告的版本号
    • Baihai_IDP
    • 137
    • 点赞
    人工智能 LLM 面试
    你说的 CUDA 到底是哪个 CUDA?一文理清那些让人混淆的术语和版本号
  • 对长上下文能力有不同要求,怎么选择合适的模型?
    作者 | Phuoc Nguyen 编译 | 岳扬 在过去三年中,大语言模型(LLMs)的上下文窗口已从几千个 token 扩展至数十万量级 —— 在某些系统中甚至达到数百万。Gemini 2.5、C
    • Baihai_IDP
    • 109
    • 点赞
    LLM 人工智能 面试
    对长上下文能力有不同要求,怎么选择合适的模型?
  • RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库
    RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库 本篇文章是 Milvus 向量数据库学习的总结篇,打造自己的知识库系统。 RAG是什么 RAG 是retrieval-a
    • demo007x
    • 6.3k
    • 32
    LLM 程序员 人工智能
    RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库
  • 一篇文章带你学会向量数据库Milvus(二)
    一篇文章带你学会向量数据库Milvus(二) 上一篇文章 一篇文章带你学会向量数据库Milvus(一)我们我们学习了 Milvus 向量数据库的数据库管理,集合管理,schema 管理。这一篇文章我们
    • demo007x
    • 5.4k
    • 5
    后端 LLM 程序员
    一篇文章带你学会向量数据库Milvus(二)
  • The Life Reset Map Prompt
    Dan Koe 的 “A Prompt To Reset Your Life In 30 Days” ,常被简称为 “The Life Reset Map Prompt”。 它帮助用户通过系统访谈、反
    • 是魔丸啊
    • 381
    • 1
    LLM
  • 应该使用哪个向量数据库?选择最适合您需求的一款
    应该使用哪个向量数据库?选择最适合您需求的一款 介绍 向量数据库已成为存储和索引非结构化和结构化数据表示的首选位置。这些表示称为向量嵌入,是由嵌入模型生成的。向量存储在利用深度学习模型(尤其是大型语言
    • demo007x
    • 4.6k
    • 7
    LLM 人工智能 程序员
    应该使用哪个向量数据库?选择最适合您需求的一款
  • 上下文管理策略综述
    作者 | Drew Breunig 编译 | 岳扬 01 缓解与避免上下文失效问题 早前发布我们发布过《How Long Contexts Fail》[1],本文我们再来系统探讨能够减轻或完全避免这些
    • Baihai_IDP
    • 136
    • 点赞
    人工智能 LLM
    上下文管理策略综述
  • 使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结
    使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结: 大模型已经火了快 2 年的时间了,从简单的文字处理的单一场景到到现在的企业迫切需要 LLM 在更多的场景赋能的时代。大众也从简单问答
    • demo007x
    • 4.2k
    • 27
    LLM 程序员 人工智能
    使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结
  • 压缩而不失智:LLM 量化技术深度解析
    作者 | Bhavishya Pandit 编译 | 岳扬 像我们这样的大语言模型,多少有点“养尊处优”。我们钟爱庞大的参数规模、海量的内存和强悍的 GPU。但当有人试图在手机或配备低性能 GPU 的
    • Baihai_IDP
    • 146
    • 3
    LLM 人工智能 面试
    压缩而不失智:LLM 量化技术深度解析
  • 晚上好!
    点亮在社区的每一天

    推荐话题 换一换

    #挑战每日一条沸点#
    #挑战每日一条沸点#

    22.9m

    #过年啦#

    38k

    #晒晒你的摸鱼日常#
    #晒晒你的摸鱼日常#

    1.2m

    #每日快讯#

    9.8m

    #每日精选文章#

    3.4m

    #日新计划#

    10.7m

    #每天一个知识点#

    47.9m

    #工作中做得最正确的一件事#
    #工作中做得最正确的一件事#

    418k

    #掘金一周#

    1.5m

    #新人报道#

    38.9m

    查看更多
    • 用户协议
    • 营业执照
    • 隐私政策
    • 关于我们
    • 使用指南
    • 友情链接
    • 更多阅读文章
    • 举报邮箱: feedback@xitu.io
    • 座机电话: 010-83434395
    • 京ICP备:18012699号-3
    • 京ICP证:京B2-20191272
    • police 京公网安备11010802026719号
    • ©2026 稀土掘金