能动手才推 · AI · 03/14
不是资讯,是能做的。只推能动手做的,不推纯新闻。 AI 实操手册 · 今日精选 10 条可动手内容
1. Anthropic 交互式提示工程教程
- 来源:Anthropic · 100 分
- 摘要:Anthropic开源交互式提示工程教程,含代码示例和实操指南,开发者可立即上手学习。
- 链接:github.com/anthropics/…
- 推荐理由:GitHub开源交互式教程,提供可直接运行的代码和详细指南,用户可立即动手实践提示工程技巧。高星高fork表明社区验证充分,对开发者有明显实用价值。
2. anthropics/claude-code
- 来源:Anthropic · 95 分
- 摘要:Claude Code是终端AI编程工具,通过自然语言理解代码库、执行任务、解释代码和处理Git工作流,帮助开发者提升编码效率。
- 链接:github.com/anthropics/…
- 推荐理由:GitHub开源项目可直接安装使用,提供详细文档和命令行工具,开发者可立即在终端中实践AI辅助编程,社区活跃度高且为近期发布。
3. firecrawl/firecrawl
- 来源:AttentionVC · 90 分
- 摘要:Firecrawl提供网页数据API,可将网站转为LLM可读的Markdown或结构化数据,开源项目可直接部署使用。
- 链接:github.com/firecrawl/f…
- 推荐理由:GitHub开源项目提供完整API和文档,可直接部署使用;star数近10万表明社区验证充分;开发者可立即调用API将网页转为结构化数据;发布时间为未来日期但按当前时间评估为最新
4. 阿里巴巴/页面代理
- 来源:AttentionVC · 90 分
- 摘要:阿里巴巴开源JavaScript页面GUI代理,可通过自然语言控制Web界面,提供完整代码和文档供开发者直接使用。
- 链接:github.com/alibaba/pag…
- 推荐理由:GitHub开源项目提供完整代码、文档和示例,开发者可直接克隆使用;自然语言控制Web界面对前端开发者和自动化测试人员有实用价值;README包含快速开始指南和API文档;star数7696表明社区关
5. HKUDS/CLI-Anything
- 来源:AttentionVC · 90 分
- 摘要:开源CLI工具,让所有软件支持智能体操作,提供完整代码和文档,开发者可立即使用。
- 链接:github.com/HKUDS/CLI-A…
- 推荐理由:GitHub开源项目,提供完整代码、文档和安装指南,开发者可立即克隆使用;star数过万表明社区验证充分;发布时间为未来日期,但按当前标准视为最新技术;项目旨在让所有软件支持智能体操作,对开发者有明显
6. promptfoo/promptfoo
- 来源:AttentionVC · 90 分
- 摘要:开源AI提示词测试框架,支持多模型对比和红队测试,提供命令行工具和配置示例
- 链接:github.com/promptfoo/p…
- 推荐理由:该项目提供完整的命令行工具、配置文件示例和CI/CD集成,用户可直接下载使用;对开发者测试AI提示词和模型性能有实际帮助;GitHub链接明确,star数高说明社区验证充分;发布时间为未来但作为开源项
7. vLLM在Jetson Orin上的预构建轮子支持Marlin GPTQ(预填充速度提升3.8倍)
- 来源:Reddit·LLM · 89 分
- 摘要:为Jetson Orin设备提供预编译vLLM轮子,集成Marlin GPTQ支持,实现3.8倍预填充加速,可直接下载使用。
- 链接:www.reddit.com/r/LocalLLaM…
- 推荐理由:提供预编译的vLLM轮子,支持Jetson Orin的Marlin GPTQ内核,可直接下载使用,显著提升推理速度;针对特定硬件开发者有明确价值;Reddit社区有讨论验证;时效性高。
8. IndexCache:通过跨层索引复用加速稀疏注意力
- 来源:Reddit·LLM · 89 分
- 摘要:提供IndexCache补丁,通过跨层索引复用加速稀疏注意力计算,适用于DeepSeek-V3.2等模型,预填充速度提升1.82倍。
- 链接:www.reddit.com/r/LocalLLaM…
- 推荐理由:该内容提供了可直接使用的代码补丁(GitHub仓库),针对SGLang和vLLM框架实现稀疏注意力加速,开发者可立即集成测试。技术方案具体(消除75%索引计算、1.82倍加速),对使用DeepSeek
9. 55到282 tok/s:如何在4块RTX PRO 6000 Blackwell上高速运行Qwen3.5-397B
- 来源:Reddit·LLM · 89 分
- 摘要:作者通过自定义CUTLASS内核修复SM120 MoE GEMM问题,将Qwen3.5-397B推理速度从55提升至282 tok/s,提供Docker镜像和PR,适合Blackwell GPU用户实践。
- 链接:www.reddit.com/r/LocalLLaM…
- 推荐理由:内容提供具体技术解决方案(自定义CUTLASS内核)、性能优化步骤(从55到282 tok/s)、PR提交至FlashInfer、预构建Docker镜像可用,开发者可直接使用或参考;针对特定硬件(SM
10. 基于Nemotron+RAG的开源本地NotebookLM替代方案(无需云端API)
- 来源:Reddit·LLM · 89 分
- 摘要:开源本地NotebookLM替代方案,支持文档/URL/视频上传,使用Nemotron+RAG实现本地分析存储,无需云API。
- 链接:www.reddit.com/r/LocalLLaM…
- 推荐理由:该项目提供完整的开源代码和本地部署方案,用户可直接下载使用,无需依赖云API。对开发者有明显实用价值,能提升本地文档处理效率。Reddit社区有具体讨论和反馈,时效性高。
能动手才推 · AI 实操手册 · 评分≥65 = 值得动手尝试
有问题欢迎加微信聊:yuyezhiji