首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
后端
程序员
面试
前端
Linux
人工智能
C++
Python
AI编程
展开
全部
后端
程序员
面试
前端
Linux
人工智能
C++
Python
AI编程
网络协议
LLM
数据库
Agent
Qt
架构
暂无数据
推荐
最新
以 Nano-vLLM 为例,深入理解 LLM 推理引擎(Part 1)
作者 | Neutree AI 编译 | 岳扬 01 整体架构设计、调度策略以及从提示词到词元的完整路径 在生产环境中部署大语言模型时,推理引擎是一种关键的基础设施组件。你所使用的每一个 LLM AP
OpenClaw 架构详解 · 第一部分:控制平面、会话管理与事件循环
作者 | Vinoth Govindarajan 编译 | 岳扬 大多数 AI 智能体的演示看起来神奇无比,就像魔法一样。 而 OpenClaw 给人的感觉是真正的“自主运行”。 但在技术底层,它并非
解构 MCP 的伪需求与 CLI 的真价值
作者 | Eric Holmes 编译 | 岳扬 我想下一个大胆的断言:MCP 已是大势已去。 或许我们可能还没有完全意识到,但种种迹象早已显露端倪。OpenClaw 不支持它,Pi 也不支持它。而这
为什么 AI 巨头们放弃私有壁垒,争相拥抱 Agent Skills
作者 | Han HELOIR YAN, Ph.D. 编译 | 岳扬 2025 年 12 月 18 日,AI 行业发生了一件不同寻常的事:OpenAI 宣布将采用由其主要竞争对手 Anthropic
LLM 存在的一些问题,人类就不存在吗?
作者 | Jakob Kastelic 编译 | 岳扬 当一些人还在争论计算机为何永远无法通过图灵测试**时,我却反复被另一种观点所困扰:随着模型不断进化而人类停滞不前,基准测试的门槛终将被抬高到连人
OpenClaw 架构详解 · 第二部分:并发、隔离以及确保智能体正常运行的不变量(Invariants)
作者 | Vinoth Govindarajan 编译 | 岳扬 在第一部分,有一个令人背脊发凉的“凌晨 3 点的电话”之问: 为什么我的 AI 助手会在我睡觉时做某些事? 第二部分则是更可怕的后续问
RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库
RAG实操教程: langchain+Milvus向量数据库创建你的本地知识库 本篇文章是 Milvus 向量数据库学习的总结篇,打造自己的知识库系统。 RAG是什么 RAG 是retrieval-a
在 Anthropic 的这两年,我学会了 13 件事
The Dance Class by Edgar Degas, 1874 作者 | Karina Nguyen 编译 | 岳扬 我确定,Anthropic 再也不会是我当初加入时的那个样子了,而我自己
GPU 应该怎么选择?写给 AI 工程师的 GPU 选型指南
作者 | Alex Razvant 编译 | 岳扬 大多数 AI 工程师都将 NVIDIA GPU 作为其 AI 工作负载的计算平台。不过,很多人只知道 GPU 叫什么名字,却不知道要让一个 AI 系
一篇文章带你学会向量数据库Milvus(二)
一篇文章带你学会向量数据库Milvus(二) 上一篇文章 一篇文章带你学会向量数据库Milvus(一)我们我们学习了 Milvus 向量数据库的数据库管理,集合管理,schema 管理。这一篇文章我们
微调后的Qwen3-4B在多项基准测试上战平或胜过GPT-OSS-120B
作者 | Distil Labs 编译 | 岳扬 01 TL;DR 经过微调的小型语言模型(SLM)可以胜过规模大得多的模型:微调后的 Qwen3-4B 在 8 项基准测试中的 7 项上表现能够超越或
【LLM】低秩矩阵LoRA的使用指南
为什么LoRA中低秩矩阵是一个优势? 前一篇文章我们在讨论 Attention 矩阵时说“满秩好,低秩意味着能力坍塌”,但到了 LoRA(Low-Rank Adaptation)这里,怎么“低秩”反而
应该使用哪个向量数据库?选择最适合您需求的一款
应该使用哪个向量数据库?选择最适合您需求的一款 介绍 向量数据库已成为存储和索引非结构化和结构化数据表示的首选位置。这些表示称为向量嵌入,是由嵌入模型生成的。向量存储在利用深度学习模型(尤其是大型语言
以 Nano-vLLM 为例,深入理解 LLM 推理引擎(Part 2)
作者 | Neutree AI 编译 | 岳扬 01 模型内部机制、KV Cache 与张量并行(Tensor Parallelism) 在 Part 1 中,我们探讨了 Nano-vLLM 的工程架
使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结
使用coze扣子搭建智能bot「程序员的工具箱」的思考和总结: 大模型已经火了快 2 年的时间了,从简单的文字处理的单一场景到到现在的企业迫切需要 LLM 在更多的场景赋能的时代。大众也从简单问答
Prompt caching 技术是如何实现 1 折的推理成本优化的?
作者 | Sam Rose 编译 | 岳扬 撰写本文时,OpenAI 和 Anthropic 的 API 中,缓存的 input token 单价仅为普通 input token 的十分之一。 Ant
Skills 与延迟加载工具定义的 MCP,目前哪个更高效、稳定和可控?
作者 | Armin Ronacher (作者为 Flask、Jinja2 等开源项目的创建者) 编译 | 岳扬 我正把所有的 MCP 都迁移到 Skills 上,包括之前还在使用的最后一个:Sent
Claude Code中的Commands→Skills→Agents是进阶路径?你可能理解错了
作者 | Ilia Karelin 编译 | 岳扬 “我是该用 Command、Skill 还是 Agent 来处理这件事?”老实说,你以前肯定问过自己这个问题。 答案总是那一套。“Commands
🔥使用谷歌 Gemini API 构建自己的 ChatGPT(一)🚀
使用谷歌 Gemini API 构建自己的 ChatGPT(一) AI领域一直由OpenAI和微软等公司主导,而Gemini则崭露头角,以更大的规模和多样性脱颖而出。它被设计用于无缝处理文本、图像、音
强化学习比你想象的还要更为低效...
作者 | Dwarkesh Patel 编译 | 岳扬 最近,人们[1]一直在讨论[2]:在强化学习(RL)中生成单个样本所需的计算量(FLOPs)远高于有监督学习(supervised learni