首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AI大模型技术星球
掘友等级
高级工程师
某大厂在职老牛,Ai大模型开发工程师
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
8
文章 8
沸点 0
赞
8
返回
|
搜索文章
最新
热门
🚀重构LLM开发生态:无状态Reducer+小型Agent架构实战指南
为构建可靠、可维护且可扩展的 LLM 应用,避免一些非确定性 AI 组件带来的一些意图理解的偏差、上下文管理的混乱、人机协作的断层等问题,我将通过12-Factor Agents框架,提炼出了12项原
⚡深入解析 ReAct 代理模式:从原理到原生实现
一、ReAct 模式:AI 代理的“思考-行动”循环 ReAct(Reasoning + Action)是一种让大语言模型(LLM)自主完成任务的核心架构。与传统直接生成答案的模式不同,ReAct 要
🔥【2025高频面试题】AI大模型岗位面试题之 Prompt 提示词工程
1. 什么是Prompt(提示词)?在AI大模型语境下,它的核心作用是什么? 答案: Prompt是用户提供给大语言模型(LLM)的输入文本或指令,用于引导和激发模型生成符合期望的输出。它的核心作用
⚡上下文工程:优化智能体性能的关键策略
智能体在执行长期任务时,上下文窗口(类似计算机的RAM)的容量有限,易导致性能下降、成本飙升或幻觉问题。上下文工程正是为解决这些问题而生。它通过精心筛选、存储和优化上下文信息,确保智能体高效运行。本文
🚀解锁RAG精度:200-800 Token分块大小的黄金法则,别再犯这些错!
引言:分块——RAG系统的命脉 在RAG架构中,分块是连接原始文档和语义检索的桥梁。它决定了嵌入模型能否精准捕捉文本语义,以及LLM能否生成高质量回答。许多开发者误以为“越大越好”,直接将整篇文档喂给
✅2025全网最具权威深度解析并手写RAG Pipeline
为了帮助大家从底层更好地理解 RAG 的工作原理,带你撕开技术黑箱,仅用numpy等Python基础库构建RAG系统,从零手撕RAG内核!从文本划分、向量化、相似度检索到生成优化,逐行代码解剖检索增强
🔥企业级必读:筛选高可用MCP服务的黄金标准
一、MCP vs Function Call:本质差异与协议优势 核心能力对比 协议层创新: 关键突破:通过context字段实现跨工具会话状态保持,解决复杂任务中的信息孤岛问题。 二、环境配置:跨平
RAG三阶段避坑指南:解决召回不全/上下文冗余/事实错误
从理论到实践,全面解析RAG性能瓶颈与高阶优化方案。 一、RAG核心架构全景图 RAG性能瓶颈分析 二、检索阶段深度优化 1. 多路召回架构实现 2. 重排序优化(Cross-Encoder) 优化效
工业级Transformer优化手册:混合精度训练+量化部署实战解析
一、Transformer训练过程深度剖析 1.1 训练流程全景图 1.2 关键训练技术 1.2.1 教师强制(Teacher Forcing) 1.3 损失函数与优化策略 损失函数选择: 分类任务:
💻 工业级代码实战:TransformerEncoderLayer六层堆叠完整实现(附调试技巧)
一、Transformer编码器整体结构 Transformer编码器由N个相同层堆叠而成,单层结构包含: 二、核心技术解析与实现 1. 位置编码(Positional Encoding) 为什么需要
下一页
个人成就
文章被点赞
29
文章被阅读
24,463
掘力值
468
关注了
1
关注者
59
收藏集
0
关注标签
7
加入于
2025-06-10