稀土掘金 稀土掘金
    • 首页
    • 沸点
    • 课程
    • 数据标注 HOT
    • AI Coding
    • 更多
      • 直播
      • 活动
      • APP
      • 插件
    • 直播
    • 活动
    • APP
    • 插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
  • 全部
  • 后端
  • 面试
  • 程序员
  • 前端
  • Linux
  • 人工智能
  • LLM
  • Python
  • 架构
  • 展开
  • 全部
  • 后端
  • 面试
  • 程序员
  • 前端
  • Linux
  • 人工智能
  • LLM
  • Python
  • 架构
  • AI编程
  • 游戏
  • C++
  • 网络协议
  • 算法
  • JavaScript
  • 暂无数据
    • 推荐
    • 最新
  • OpenClaw 架构详解 · 第二部分:并发、隔离以及确保智能体正常运行的不变量(Invariants)
    作者 | Vinoth Govindarajan 编译 | 岳扬 在第一部分,有一个令人背脊发凉的“凌晨 3 点的电话”之问: 为什么我的 AI 助手会在我睡觉时做某些事? 第二部分则是更可怕的后续问
    • Baihai_IDP
    • 14
    • 点赞
    人工智能 LLM 面试
    OpenClaw 架构详解 · 第二部分:并发、隔离以及确保智能体正常运行的不变量(Invariants)
  • OpenClaw 架构详解 · 第一部分:控制平面、会话管理与事件循环
    作者 | Vinoth Govindarajan 编译 | 岳扬 大多数 AI 智能体的演示看起来神奇无比,就像魔法一样。 而 OpenClaw 给人的感觉是真正的“自主运行”。 但在技术底层,它并非
    • Baihai_IDP
    • 91
    • 点赞
    人工智能 LLM 面试
    OpenClaw 架构详解 · 第一部分:控制平面、会话管理与事件循环
  • 为什么 AI 巨头们放弃私有壁垒,争相拥抱 Agent Skills
    作者 | Han HELOIR YAN, Ph.D. 编译 | 岳扬 2025 年 12 月 18 日,AI 行业发生了一件不同寻常的事:OpenAI 宣布将采用由其主要竞争对手 Anthropic
    • Baihai_IDP
    • 116
    • 1
    人工智能 LLM 面试
    为什么 AI 巨头们放弃私有壁垒,争相拥抱 Agent Skills
  • 在 Anthropic 的这两年,我学会了 13 件事
    The Dance Class by Edgar Degas, 1874 作者 | Karina Nguyen 编译 | 岳扬 我确定,Anthropic 再也不会是我当初加入时的那个样子了,而我自己
    • Baihai_IDP
    • 60
    • 点赞
    LLM 人工智能 程序员
    在 Anthropic 的这两年,我学会了 13 件事
  • GPU 应该怎么选择?写给 AI 工程师的 GPU 选型指南
    作者 | Alex Razvant 编译 | 岳扬 大多数 AI 工程师都将 NVIDIA GPU 作为其 AI 工作负载的计算平台。不过,很多人只知道 GPU 叫什么名字,却不知道要让一个 AI 系
    • Baihai_IDP
    • 142
    • 点赞
    LLM 人工智能 面试
    GPU 应该怎么选择?写给 AI 工程师的 GPU 选型指南
  • Prompt caching 技术是如何实现 1 折的推理成本优化的?
    作者 | Sam Rose 编译 | 岳扬 撰写本文时,OpenAI 和 Anthropic 的 API 中,缓存的 input token 单价仅为普通 input token 的十分之一。 Ant
    • Baihai_IDP
    • 69
    • 点赞
    人工智能 LLM 面试
    Prompt caching 技术是如何实现 1 折的推理成本优化的?
  • 【LLM】低秩矩阵LoRA的使用指南
    为什么LoRA中低秩矩阵是一个优势? 前一篇文章我们在讨论 Attention 矩阵时说“满秩好,低秩意味着能力坍塌”,但到了 LoRA(Low-Rank Adaptation)这里,怎么“低秩”反而
    • xincheng_q
    • 132
    • 1
    LLM
    【LLM】低秩矩阵LoRA的使用指南
  • 微调后的Qwen3-4B在多项基准测试上战平或胜过GPT-OSS-120B
    作者 | Distil Labs 编译 | 岳扬 01 TL;DR 经过微调的小型语言模型(SLM)可以胜过规模大得多的模型:微调后的 Qwen3-4B 在 8 项基准测试中的 7 项上表现能够超越或
    • Baihai_IDP
    • 140
    • 1
    人工智能 LLM 开源
    微调后的Qwen3-4B在多项基准测试上战平或胜过GPT-OSS-120B
  • 强化学习比你想象的还要更为低效...
    作者 | Dwarkesh Patel 编译 | 岳扬 最近,人们[1]一直在讨论[2]:在强化学习(RL)中生成单个样本所需的计算量(FLOPs)远高于有监督学习(supervised learni
    • Baihai_IDP
    • 87
    • 点赞
    人工智能 LLM
    强化学习比你想象的还要更为低效...
  • RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库
    RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库 本篇文章是 Milvus 向量数据库学习的总结篇,打造自己的知识库系统。 RAG是什么 RAG 是retrieval-a
    • demo007x
    • 6.6k
    • 33
    LLM 程序员 人工智能
    RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库
  • Skills 与延迟加载工具定义的 MCP,目前哪个更高效、稳定和可控?
    作者 | Armin Ronacher (作者为 Flask、Jinja2 等开源项目的创建者) 编译 | 岳扬 我正把所有的 MCP 都迁移到 Skills 上,包括之前还在使用的最后一个:Sent
    • Baihai_IDP
    • 114
    • 点赞
    人工智能 LLM
    Skills 与延迟加载工具定义的 MCP,目前哪个更高效、稳定和可控?
  • 智能体的构建依然是个“脏活累活”...
    作者 | Armin Ronacher 编译 | 岳扬 我觉得现在可能是时候写一写最近学到的一些新东西了。其中大部分内容会围绕构建智能体(agents)展开,也会稍微分享一点关于使用具有智能体特性的编
    • Baihai_IDP
    • 128
    • 1
    人工智能 LLM 程序员
    智能体的构建依然是个“脏活累活”...
  • 一篇文章带你学会向量数据库Milvus(二)
    一篇文章带你学会向量数据库Milvus(二) 上一篇文章 一篇文章带你学会向量数据库Milvus(一)我们我们学习了 Milvus 向量数据库的数据库管理,集合管理,schema 管理。这一篇文章我们
    • demo007x
    • 5.5k
    • 6
    后端 LLM 程序员
    一篇文章带你学会向量数据库Milvus(二)
  • 英伟达与 OpenAI、甲骨文:亦敌亦友的 AI 三角
    作者 | Philippe Oger 编译 | 岳扬 过去 48 小时,我完全沉浸在对英伟达 2026 财年第三季度财报[1]的深度研究中。如果你只看新闻标题,一切看起来都完美无缺:营收同比增长 62
    • Baihai_IDP
    • 76
    • 点赞
    人工智能 LLM NVIDIA
    英伟达与 OpenAI、甲骨文:亦敌亦友的 AI 三角
  • 如何减少单智能体输出结果的不确定性?利用并行智能体的“集体智慧”
    作者 | Ben Redmond 编译 | 岳扬 智能体编码(Agentic coding)存在一个问题 —— 输出结果的不稳定性(variance)。如果单智能体的运行机制本身就在设计上限制了性能上
    • Baihai_IDP
    • 81
    • 点赞
    人工智能 LLM 面试
    如何减少单智能体输出结果的不确定性?利用并行智能体的“集体智慧”
  • 应该使用哪个向量数据库?选择最适合您需求的一款
    应该使用哪个向量数据库?选择最适合您需求的一款 介绍 向量数据库已成为存储和索引非结构化和结构化数据表示的首选位置。这些表示称为向量嵌入,是由嵌入模型生成的。向量存储在利用深度学习模型(尤其是大型语言
    • demo007x
    • 4.7k
    • 7
    LLM 人工智能 程序员
    应该使用哪个向量数据库?选择最适合您需求的一款
  • 使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结
    使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结: 大模型已经火了快 2 年的时间了,从简单的文字处理的单一场景到到现在的企业迫切需要 LLM 在更多的场景赋能的时代。大众也从简单问答
    • demo007x
    • 4.3k
    • 27
    LLM 程序员 人工智能
    使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结
  • Claude Code中的Commands→Skills→Agents是进阶路径?你可能理解错了
    作者 | Ilia Karelin 编译 | 岳扬 “我是该用 Command、Skill 还是 Agent 来处理这件事?”老实说,你以前肯定问过自己这个问题。 答案总是那一套。“Commands
    • Baihai_IDP
    • 149
    • 点赞
    人工智能 LLM
    Claude Code中的Commands→Skills→Agents是进阶路径?你可能理解错了
  • 你说的 CUDA 到底是哪个 CUDA?一文理清那些让人混淆的术语和版本号
    作者 | James Akl 编译 | 岳 扬 CUDA 的术语存在严重的多重含义问题:“CUDA” 一词本身至少指代五种不同的概念,“driver” 在不同上下文中含义也不同,而各种工具报告的版本号
    • Baihai_IDP
    • 189
    • 点赞
    人工智能 LLM 面试
    你说的 CUDA 到底是哪个 CUDA?一文理清那些让人混淆的术语和版本号
  • 对长上下文能力有不同要求,怎么选择合适的模型?
    作者 | Phuoc Nguyen 编译 | 岳扬 在过去三年中,大语言模型(LLMs)的上下文窗口已从几千个 token 扩展至数十万量级 —— 在某些系统中甚至达到数百万。Gemini 2.5、C
    • Baihai_IDP
    • 165
    • 点赞
    LLM 人工智能 面试
    对长上下文能力有不同要求,怎么选择合适的模型?
  • 早上好!
    点亮在社区的每一天

    推荐话题 换一换

    #挑战每日一条沸点#
    #挑战每日一条沸点#

    23.8m

    #每日快讯#

    10.0m

    #每日精选文章#

    4.6m

    #日新计划#

    11.0m

    #每天一个知识点#

    50.6m

    #OpenClaw今天想篡位了吗#
    #OpenClaw今天想篡位了吗#

    853k

    #工作中做得最正确的一件事#
    #工作中做得最正确的一件事#

    435k

    #新人报道#

    40.0m

    #掘金一周#

    1.7m

    #AI 编程#

    1.2m

    查看更多
    • 用户协议
    • 营业执照
    • 隐私政策
    • 关于我们
    • 使用指南
    • 友情链接
    • 更多阅读文章
    • 举报邮箱: feedback@xitu.io
    • 座机电话: 010-83434395
    • 京ICP备:18012699号-3
    • 京ICP证:京B2-20191272
    • police 京公网安备11010802026719号
    • ©2026 稀土掘金