首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
LLM
Agent
AIGC
程序员
OpenAI
AI编程
后端
前端
展开
全部
人工智能
LLM
Agent
AIGC
程序员
OpenAI
AI编程
后端
前端
算法
Python
深度学习
计算机视觉
JavaScript
LangChain
暂无数据
推荐
最新
大模型平民化:3块钱、2小时,MiniMind开源项目全解析
印象里大模型参数动辄千亿万亿,训练成本更是天文数字,感觉像是普通人遥不可及的“屠龙之术”。但今天想跟你们聊个有意思的反例,一个叫 MiniMind 的开源项目,它反其道而行之,主打一个“大道至简”。
大模型(Qwen3)训练实战:从零开始玩转LLaMA-Factory
今天,我将为大家详细介绍如何使用LLaMA-Factory这一开源框架,从环境搭建到模型训练,再到实际应用,手把手教你打造属于自己的AI助手!
工程师学AI之第四篇:大模型的参数规模与哪些因素有关?
本章我们开始学习大模型算法理论、网络结构及其工作原理,正式开始之前我们先关注几个问题,宏观上理解大模型的概貌。
工程师学AI之第三篇03:线性代数点积运算助你理解大模型注意力机制
本文重点介绍点积计算如何应用在transformer注意力机制中。你肯定好奇到底点积运算发挥了什么作用,这篇文章篇幅较长,比较烧脑,纰漏之处欢迎指出讨论,本文重点结合理论与代码实践回答下面几个问题。
使用 LangChain 创建一个简单的 Agent
LangChain、AI SDK、Agent、LangSmith这么多名词你知道是什么吗?文章实现了一个的 Agent 可以回答某地区的天气情况,助你搞明白这些东西是什么!
AI 为啥能回答你的问题?大模型 5 步工作流程,看完秒懂!
本文将用通俗易懂的语言,为你拆解大语言模型(LLM)背后的核心工作流程。大模型处理问题主要包含五个关键环节,分别是:分词 、词嵌入、位置编码、自注意力机制和自回归生成。
GraphRAG 全流程实战指南:从入门到业务落地
本文全面解析微软开源的 GraphRAG 项目,从它是什么、怎么用、如何优化运行性能、生成哪些关键文件,到如何集成到你自己的业务中。
5步构建企业级RAG应用:Dify与LangChain v1.0集成实战
今天,我们将通过五个关键步骤,带您从零开始掌握Dify与LangChain v1.0的集成技术,构建属于自己的企业级RAG应用。
深度思考RAG实战:从零构建Agent驱动的多步骤检索增强系统(附完整代码+收藏指南)
文章介绍了一种解决传统RAG系统局限性的"深度思考RAG"架构,通过Agent驱动的多步骤处理(规划、检索、反思、批评和合成)处理复杂查询。系统包含工具感知计划器、多阶段检索漏斗、自我批评机制和流程控
工程师学AI之第二篇:AI大模型vs数学理论
上一篇我们梳理了大模型的基本脉络,并制定了学习计划:阶段一提到数学知识是理解大模型原理的必备内功,因此本章主要回顾下大学和研究生期间线性代数、概率论、微积分、信息论相关的数学知识。
工程师学AI之起始篇:理论与实践学习计划
该系列将从工程师视角,一步步去学习并理解大模型相关概念,再到会用,深入理解,掌握原理,动手实践,解决实际问题。
什么是注意力机制?什么是自注意力机制?二者有何区别?
引言:今天我们分为两大部分讲AI大模型的知识点,第一个部分是注意力机制,第二个部分是自注意力机制。 一、注意力机制 01 一句话秒懂 注意力机制=让AI学会"抓重点"的魔法! 可以简单理解为"学霸划重
多智能体系统的上下文工程——构建上下文感知的多智能体系统
在上一章中,我们使用 MCP 构建了一个多智能体系统(Multi-Agent System,MAS)。这个系统可以工作,但有一个很大的局限:它的“知识”都是模拟出来的。对于学习来说这没问题,但也意味着
LLM 四阶段和 Transformer 架构(二)
上一篇解释完点积和矩阵乘法,矩阵乘法是一种转换,这一篇看 Transformer 中如何运用的。 LLM 的本质是预测下一个 token,阶段二中,使用大量的互联网内容,给模型做训练,使用自监督学习,
豆瓣评分 9.4,为什么很多人都在推荐这本书?几页就能让你看懂!
作为一个对 LLM 工作原理很感兴趣,但又常常被各种零散教程绕晕的人,我读完 Sebastian Raschka 的《从零构建大模型》之后,其实挺松一口气的。
我是如何高效学习大模型的?
目前大模型的发展日新月异,模型架构快速迭代、各类 AI 工具与概念层出不穷——Cursor、Codex、Augement、Trae、Qoder 等等等等,面对这些海量信息,真是让人头大。
从0搭建Agentic RAG智能推荐系统(无需向量化)|Python实战分享
传统RAG(检索增强生成)依赖向量化检索,流程复杂且资源消耗大。而Agentic RAG提供了一种更轻量的替代方案——无需向量化,仅需结构化内存数据库即可实现高效检索+生成。
LLM 四阶段和 Transformer 架构(一)参数解释和向量运算
这篇文章从程序员视角,类比理解 LLM 的底层原理。 阶段一:设计蓝图 LLM 现在都用 Transformer 架构,最开始也要设置一些额外的参数。 d_modle 比如 4096,是 2 的 n
Happy-LLM:从零开始的大语言模型原理与实践教程
《Happy-LLM》项目是一个系统性的 LLM 学习教程的开源项目,旨在帮助学习者深入理解大语言模型的核心原理和训练过程,并能够亲手搭建和训练一个 LLM。
AIGC时代的必备技能--Prompt工程
提示词的质量直接决定了大模型输出的质量,对于开发人员来说,学习完成后就能够快速上手、即时获益,是开启大模型学习之路性价比之选~