首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
程序员
后端
面试
前端
人工智能
Linux
资讯
LLM
产品
展开
全部
程序员
后端
面试
前端
人工智能
Linux
资讯
LLM
产品
C++
架构
游戏
开源
Trae
产品经理
暂无数据
推荐
最新
GPU 应该怎么选择?写给 AI 工程师的 GPU 选型指南
作者 | Alex Razvant 编译 | 岳扬 大多数 AI 工程师都将 NVIDIA GPU 作为其 AI 工作负载的计算平台。不过,很多人只知道 GPU 叫什么名字,却不知道要让一个 AI 系
【LLM】低秩矩阵LoRA的使用指南
为什么LoRA中低秩矩阵是一个优势? 前一篇文章我们在讨论 Attention 矩阵时说“满秩好,低秩意味着能力坍塌”,但到了 LoRA(Low-Rank Adaptation)这里,怎么“低秩”反而
Claude Code中的Commands→Skills→Agents是进阶路径?你可能理解错了
作者 | Ilia Karelin 编译 | 岳扬 “我是该用 Command、Skill 还是 Agent 来处理这件事?”老实说,你以前肯定问过自己这个问题。 答案总是那一套。“Commands
强化学习比你想象的还要更为低效...
作者 | Dwarkesh Patel 编译 | 岳扬 最近,人们[1]一直在讨论[2]:在强化学习(RL)中生成单个样本所需的计算量(FLOPs)远高于有监督学习(supervised learni
微调后的Qwen3-4B在多项基准测试上战平或胜过GPT-OSS-120B
作者 | Distil Labs 编译 | 岳扬 01 TL;DR 经过微调的小型语言模型(SLM)可以胜过规模大得多的模型:微调后的 Qwen3-4B 在 8 项基准测试中的 7 项上表现能够超越或
Skills 与延迟加载工具定义的 MCP,目前哪个更高效、稳定和可控?
作者 | Armin Ronacher (作者为 Flask、Jinja2 等开源项目的创建者) 编译 | 岳扬 我正把所有的 MCP 都迁移到 Skills 上,包括之前还在使用的最后一个:Sent
英伟达与 OpenAI、甲骨文:亦敌亦友的 AI 三角
作者 | Philippe Oger 编译 | 岳扬 过去 48 小时,我完全沉浸在对英伟达 2026 财年第三季度财报[1]的深度研究中。如果你只看新闻标题,一切看起来都完美无缺:营收同比增长 62
智能体的构建依然是个“脏活累活”...
作者 | Armin Ronacher 编译 | 岳扬 我觉得现在可能是时候写一写最近学到的一些新东西了。其中大部分内容会围绕构建智能体(agents)展开,也会稍微分享一点关于使用具有智能体特性的编
如何减少单智能体输出结果的不确定性?利用并行智能体的“集体智慧”
作者 | Ben Redmond 编译 | 岳扬 智能体编码(Agentic coding)存在一个问题 —— 输出结果的不稳定性(variance)。如果单智能体的运行机制本身就在设计上限制了性能上
DigitalOcean携手Persistent达成战略合作,让 AI 更亲民、更易扩展
DigitalOcean 与 Persistent 战略合作,通过 SASVA™ 平台与 Gradient AI 云,降低 AI 成本超50%,推动企业高效、安全地规模化应用 AI。
靠更换嵌入模型,该产品将 RAG 延迟降低了50%
作者 | MyClone Engineering Team 编译 | 岳扬 在 MyClone.is,我们的使命是打造真正个性化的数字人格。我们通过检索增强生成(RAG)技术,为每位用户构建一个内容丰
你说的 CUDA 到底是哪个 CUDA?一文理清那些让人混淆的术语和版本号
作者 | James Akl 编译 | 岳 扬 CUDA 的术语存在严重的多重含义问题:“CUDA” 一词本身至少指代五种不同的概念,“driver” 在不同上下文中含义也不同,而各种工具报告的版本号
对长上下文能力有不同要求,怎么选择合适的模型?
作者 | Phuoc Nguyen 编译 | 岳扬 在过去三年中,大语言模型(LLMs)的上下文窗口已从几千个 token 扩展至数十万量级 —— 在某些系统中甚至达到数百万。Gemini 2.5、C
RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库
RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库 本篇文章是 Milvus 向量数据库学习的总结篇,打造自己的知识库系统。 RAG是什么 RAG 是retrieval-a
一篇文章带你学会向量数据库Milvus(二)
一篇文章带你学会向量数据库Milvus(二) 上一篇文章 一篇文章带你学会向量数据库Milvus(一)我们我们学习了 Milvus 向量数据库的数据库管理,集合管理,schema 管理。这一篇文章我们
The Life Reset Map Prompt
Dan Koe 的 “A Prompt To Reset Your Life In 30 Days” ,常被简称为 “The Life Reset Map Prompt”。 它帮助用户通过系统访谈、反
应该使用哪个向量数据库?选择最适合您需求的一款
应该使用哪个向量数据库?选择最适合您需求的一款 介绍 向量数据库已成为存储和索引非结构化和结构化数据表示的首选位置。这些表示称为向量嵌入,是由嵌入模型生成的。向量存储在利用深度学习模型(尤其是大型语言
上下文管理策略综述
作者 | Drew Breunig 编译 | 岳扬 01 缓解与避免上下文失效问题 早前发布我们发布过《How Long Contexts Fail》[1],本文我们再来系统探讨能够减轻或完全避免这些
使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结
使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结: 大模型已经火了快 2 年的时间了,从简单的文字处理的单一场景到到现在的企业迫切需要 LLM 在更多的场景赋能的时代。大众也从简单问答
压缩而不失智:LLM 量化技术深度解析
作者 | Bhavishya Pandit 编译 | 岳扬 像我们这样的大语言模型,多少有点“养尊处优”。我们钟爱庞大的参数规模、海量的内存和强悍的 GPU。但当有人试图在手机或配备低性能 GPU 的