首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LLM
掘金安东尼
创建于2024-02-04
订阅专栏
深入探讨PyTorch、TensorFlow框架在大规模语言模型(LLM)领域的应用与优化,为读者提供前沿的技术洞见和实用的开发经验。
等 76 人订阅
共94篇文章
创建于2024-02-04
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
如何让 Claude Code 给整个项目做一次“产品级代码审查”?一个 prompt 搞定
五一节后回来,看到马斯克租赁算力,助力 Claude Code 额度增加,大喜! 既然额度放开了,那第一反应肯定是:不能浪费。 对于之前的多个项目进行梳理总结,形成一个「让 Claude Code 给
有点东西!16GB Mac 都能跑的 OpenAI 开源模型? gpt-oss-20b-tq3 惊艳!
May 7, 2026,昨天,我刷到 Hugging Face 上一个很离谱的模型: gpt-oss-20b-tq3 它本质上是 OpenAI 开源的 GPT-OSS-20B,被社区重新做了一层 Tu
谁才真正拥有 Agent Loop?从 OpenClaw、Claude Code 到 LangGraph、Temporal 的一次工程级拆解
过去一年,“Agent”这个词被说得太轻了。 很多系统只要能 调用工具 + 多轮推理,就被称为 Agent。真正做过工程落地的人很快会发现: 👉 绝大多数所谓 Agent Loop,只是“推理循环”,
ZeroClaw 社区风评冷思考:哪些是真口碑、哪些是 SEO 在叠 buff
写这个系列绕不开一个话题:ZeroClaw 到底口碑怎么样? 老实说,调研一圈下来,第一直觉是"被讨论得过头了"。30K Star 的项目当然是真火,但围绕它的中英文内容生态,泥沙俱下到一个让人警觉的
10 分钟跑通一个 ZeroClaw Telegram 助手(最小可用清单)
前面几篇都在讲架构和安全,这篇直接动手——把 ZeroClaw 跑成"一个能在 Telegram 群里用的小助手"。10 分钟够用,但前提是你有 Rust 工具链。 0. 环境准备 需要的东西: Ru
ZeroClaw 的安全模型:四层沙箱 + 默认拒绝是怎么叠出来的
把 LLM 接到 shell、文件系统和网络上,本质上就是给一个会幻觉的实习生发 root。ZeroClaw 在安全上踩了几个比同类框架更保守的默认值,这一篇把它的安全模型分四层讲清楚。 第 0 层:
ZeroClaw vs OpenClaw:把"-99% 内存"那张图拆开看
宣传海报上"内存只有 OpenClaw 的 1/200、启动快 400 倍"看着很爽,但凡是宣传图,都值得一项一项拆。这篇就把官方对比里真有数据支撑的和水分较大的部分分开讲。 一、确实站得住的差异 1
拆 ZeroClaw 架构:四个 Trait 撑起一个 Agent 运行时
上一篇科普里提过,ZeroClaw 的核心是四个 Rust Trait:Provider / Channel / Memory / Tool。这一篇把它们一个个拆开,看看一个"Rust Trait 驱
ZeroClaw 是什么?一个 Rust 写的"轻量级 AI Agent 运行时"完整科普
一句话先讲清楚 ZeroClaw 是一个用 Rust 写的 AI Agent 运行时,定位是"OpenClaw 的极致轻量替代"。整个项目最终产物就是一个二进制文件:你给它一份配置,它就能把 LLM
林俊旸从阿里离开后首度发声:推理模型的时代快结束了
林俊旸从阿里离开后首度发声:推理模型的时代快结束了 一、全文翻译 过去两年重塑了我们评估模型的方式和对模型的期望。OpenAI的o1证明了「思考」可以成为一种核心能力——一种你专门训练并向用户开放的能
为什么 WebGPU 也能跑大模型?多维度对比 4 种跑大模型方式
大模型推理本质就是矩阵计算,谁能提供 GPU 计算能力,谁就能跑。 WebGPU 是什么? WebGPU = 浏览器里的 GPU 计算接口(类似 CUDA / Metal 的 Web 版) 所以:
国内龙虾生态图谱:谁在做入口,谁在做技能,谁在做场景落地(v2026.3.18)
时至今日,你司要是不养龙虾,那真的是 —— (这里征集一句歇后语) 回到本文,3 月 18 日,来看看,国内龙虾,到底谁强? 底层仍然是 OpenClaw 这类执行型 Agent 框架,中间层是 Sk
llama.cpp、Ollama、LM Studio:背后是谁在做?为什么会出现?要什么机器才能跑?
书接前文,很多人把这三个当成“工具对比”。其实更有意思的是:👉 它们代表三种完全不同的力量来源,一边是纯工程黑客,一边是开发者平台,一边是产品化团队。 一、llama.cpp:个人工程师,把大模型
本地模型怎么玩?把 .GGUF 丢 进 LM Studio 跑起来
本篇分享、介绍的是: 👉 把模型转成 GGUF → 丢进 LM Studio → 直接聊天 or 当 API 用 一、先搞清楚:为什么一定是 GGUF 如果你用过 llama.cpp 或本地推理工具,
实战经验帖:本地跑 Qwen3.5 踩过的坑
最近在折腾一套本地 AI 工作流(数字员工 / MCP / Agent 自动化),从一开始盲目追大模型,到最后收敛到合理方案,中间踩了不少坑,本篇记录分享,各位注意规避。 一、第一坑:以为有 32B,
M4 32GB 能跑的最强本地模型排行榜(2026版)
本瓜手上的是一台 M4 32G 内存的 mac,我看了一篇关于:4090 跑 Qwen 35b 模型(MoE)-0限制版本 的实战文章,所以,便想着记录一下,相关的对比情况: 项目 Apple M4
养龙虾之前?先搞懂 Skills!
这段时间很多人在研究 Claude Code、OpenClaw、各种 Agent 工具,讨论最多的是模型、插件、自动化流程。 真正决定效率上限的,却往往是一个被忽略的概念:Skills。 一句话解释:
国内大模型真实格局:用户规模 vs API调用量(v2026.3.6)
没办法,不是我们不想用 cc,谁让 dario 这个波对华有成见,罢也,看看国内大模型现状,也不错呢? 如果只看一个指标,很容易对行业格局产生误判。有些模型 用户很多,但开发者调用不多;有些模型 用户
玩转龙虾🦞,openclaw 核心命令行收藏(持续更新)v2026.3.2
其实吧,没必要传的那么神乎其神,本质吧 node 框架打通了和各个聊天 channel 的网关层以及大模型调用....... 但是吧,也确实牛逼,开源建设势不可挡,这个确实是未来的趋势,本篇记录常用的
下一页