首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
LLM
Agent
AIGC
AI编程
OpenAI
后端
程序员
前端
展开
全部
人工智能
LLM
Agent
AIGC
AI编程
OpenAI
后端
程序员
前端
算法
Python
深度学习
计算机视觉
JavaScript
MCP
暂无数据
推荐
最新
揭秘 MoE 训练的“三驾马车”
揭秘 MoE 训练的“三驾马车”:一篇博客看懂 $L_{\text{main}}$, $L_{\text{balance}}$ 和 $L_{\text{router-z}}$ 在混合专家模型(MoE)
AIGC时代的必备技能--Prompt工程
提示词的质量直接决定了大模型输出的质量,对于开发人员来说,学习完成后就能够快速上手、即时获益,是开启大模型学习之路性价比之选~
MoE 负载均衡之争:为何 Mixtral 的“实用主义”胜过了“统计主义”?
MoE 负载均衡之争:为何 Mixtral 的“实用主义”胜过了“统计主义”? 在当今的大模型(LLM)领域,MoE(Mixture of Experts)架构已经成为实现“更快、更强、更大”的黄金门
Ollama × 魔搭社区:超简单的大模型本地部署方案
在应用落地方面,比如一些agent应用的落地,更离不开本地模型的部署,那说了这么多,如何正确的本地部署一个大模型呢?
RAG Chunking 2.0:提升文档分块效果的一些经验
在基于大语言模型的RAG系统里,文本分块是非常关键的一步。分块做得好,后续的向量检索、结果召回和生成质量都会更稳更准。
小白也能训大模型!Hugging Face用「200页手册」亲自教学,连踩的坑都告诉你了...
无论你是初入人工智能(AI)领域的学生、希望了解全流程的工程师,还是正在规划下一个大模型项目的团队,这份手册都提供了可参考的实战经验。
一文讲清:MoE混合专家模型是什么?
在大模型技术快速发展的今天,模型规模的不断扩展已成为推动性能提升的核心因素。但传统的"密集"(Dense)架构,其每次推理都需调用全部参数,正面临着计算成本和能耗的巨大瓶颈。 面对这一困境,混合专家模
一图看懂LangChain-AI框架关系,快速选对合适库,轻松开发智能体
LangChain-AI的核心开源库包括三个,此外还有一个商业化平台。开源库是免费的,任何应用都可以集成这三个库来开发智能体和工作流,并自行实现部署和监控等功能。
AI智能体开发框架LangChain & LangGraph快速入门实战(包含LangSmith)
最近乱七八糟的事太多,今天来点偏技术实战的,带大家用LangChain & LangGraph快速入门用编程创建智能体,用LangSmith进行追踪,Agent-Chat构建Agent UI。
用Unsloth微调一个老中医垂直领域大模型
本文介绍了如何使用Unsloth框架微调大语言模型,以《伤寒论》数据集为例训练一个中医专家模型。Unsloth显著降低了微调的资源需求。文章涵盖了从环境配置、模型选择、数据准备到训练部署的完整流程
解密“混合专家模型” (MoE) 的全部魔法
解密“混合专家模型” (MoE) 的全部魔法 在当今大语言模型 (LLM) 的竞赛中,您一定听说过 GPT-4、Mixtral 8x7B 这样的“巨无霸”。它们之所以能在保持惊人性能的同时实现高效推理
本地部署vLLM+Qwen3:高性能大模型推理引擎,比Ollama强在哪?
在人工智能快速发展的今天,越来越多企业开始部署自己的大语言模型。然而面对动辄数十亿参数的大模型,如何高效稳定地运行它们成为技术团队面临的共同挑战。
2张4090本地微调万亿参数模型!KTransformers上线模型微调功能,使用指南来了
你是否曾因算力门槛而对大模型望而却步?想要尝试微调千亿/万亿参数的模型?那更是不敢想象。今天,这个困局正在被打破。
快速上手Qwen Code:本地部署与环境配置全攻略
Qwen3-Coder 作为强大的编码 Agent,其本地部署和使用非常简单,搭配适配的命令行工具,能快速融入日常开发流程。以下是详细的安装配置步骤,以及常用命令与技巧。
大模型入门第一课:彻底搞懂Token!
作为一个新手,我深知初学者的痛点。所以这篇文章,我会用最直白的语言,带你从零开始,一步步搞懂Token到底是什么,为什么它如此重要。
手把手教:LangChain+Qwen3搭建本地RAG问答系统,从0到1全流程
本文将带大家从零开始,用LangChain框架整合Qwen3大模型与BGE-M3嵌入模型,手戳一个可本地运行的端到端RAG系统。无需复杂云服务,只需一台带GPU的电脑,就能拥有专属的“文档问答机器人”
大语言模型如何微调(Fine-tuning)?
从GPT3演进到ChatGPT,从GPT4赋能GitHub Copilot的发展历程中,微调技术发挥了关键作用。 本文将系统解析微调(fine-tuning)的核心概念、实际应用价值,以及LoRA(L
传统RAG的局限被打破!三个轻量级智能体分工协作,如何让问答系统更精准?
这种统一设计确保了高效的协调,同时保持了边缘部署的简洁性。三个智能体分别负责评估是否需要检索、生成有效的查询以及选择适合 LLMs 的信息。
从 RAG 到 CAG:AI 正在超越“检索”,学会“融会贯通”!
大型语言模型 (LLM) 无疑是当今科技领域最耀眼的明星。它们强大的自然语言处理和内容生成能力,正在重塑从搜索到创意工作的几乎所有行业。
大模型入门第二课:初识Embedding——让文字拥有"位置"的魔法
朋友们,欢迎回到我的大模型学习之旅!在上一篇文章中,我们一起攻克了Token这个概念,知道了它是大模型处理文本的基本单位。今天,我们要继续深入,探索一个更加神奇的概念——Embedding(嵌入)。