首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
大模型
coting
创建于2025-05-27
订阅专栏
系统整理与分享深度学习与大语言模型(LLM)相关的核心知识、面试内容、实际应用场景及部署技巧。
等 2 人订阅
共57篇文章
创建于2025-05-27
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
AI训练要的数据这么多,怎么存?
训练好的AI模型如果不能快速、稳定、弹性地部署到生产环境,那么再高的准确率也只是“实验室成果”。容器化(Docker)与云原生正好为AI部署提供了统一打包、跨环境运行与自动扩缩的能力。
GPU与TPU:AI计算硬件的核心对比
在人工智能,尤其是深度学习和大模型的浪潮中,算力已成为推动技术进步的核心引擎。GPU(图形处理器)和TPU(张量处理器)是两种主流的AI计算硬件,它们既有相似之处——都擅长并行浮点运算,又有相当的差别
AI Infra-为什么AI需要专属的基础设施?
近几年,人工智能尤其是大模型的爆发式发展,让算力、存储、网络等基础资源的需求呈现指数级增长。传统的IT基础设施虽然支撑了互联网时代的业务运行,但面对AI训练和推理的超高计算密度、海量数据吞吐也力不从心
MCP vs A2A:理解代理系统的两类关键协议
在智能代理开发领域,随着多智能体系统和工具集成的普及,我们经常会遇到两个概念:模型上下文协议(MCP)和Agent2Agent 协议(A2A)。他们到底有什么区别,又各自有什么用呢?
Agent2Agent 协议:让智能体真正学会“对话”
在过去几年,人工智能的发展让单个智能体已经能完成越来越复杂的任务,比如写文章、做数据分析、甚至协助编程。但当任务变得更复杂、需要多个智能体分工协作时,我们就会遇到一个问题:不同智能体之间怎么有效沟通?
什么是Agent?
在大模型快速发展的今天,我们经常会听到一个词:Agent(智能体)。简单来说,Agent 就是一个基于大模型的“智能助手”,它不仅仅能回答问题,还能记住上下文、进行任务规划、调用外部工具.
Function Calling:让语言模型调用外部功能
在现代 AI 系统中,语言模型不仅可以生成文本,还可以直接调用外部功能或服务。这种机制被称为 Function Calling。Function Calling 的原理、工作流程是什么呢?
场景驱动的大模型评估:行业落地的挑战与实践
在大模型快速演进的浪潮中,模型参数量、推理速度、通用能力已经不再是唯一的竞争维度。真正决定大模型商业价值的,是它能否在具体行业场景中稳定、高效、安全地落地运行。
大模型评估方法论:指标拆解与技术路径
本文将带你走进大模型评估的“方法论核心”,从指标拆解到技术路径,全面梳理业界常用的评估框架,帮你建立一套可落地、可复用的评估体系。
大模型的好坏怎么进行评估?
过去几年,大语言模型(LLM)像火箭一样发展,从几亿参数到千亿参数,从只能写几句短文到能写论文、写代码、画插图、做科研。它们的能力令人惊叹,但也让一个新问题浮出水面——它到底靠不靠谱?
Serverless 架构下的大模型框架落地实践
随着大模型在企业场景中广泛应用,Serverless 架构因其按需弹性伸缩、免运维管理和成本优化的特点,成为大模型落地的理想选择。
大模型框架性能优化策略:延迟、吞吐量与成本权衡
在大模型应用和推理系统中,性能优化是关键环节。无论是 LangChain、vLLM 还是 RAG 系统,架构设计、推理策略和资源调度都会直接影响延迟、吞吐量和成本。
认识 Unsloth 框架:大模型高效微调的利器
在大语言模型(LLM)应用快速发展的背景下,如何高效地在消费级硬件上进行模型的微调与部署,成为了开发者们普遍关注的问题。Unsloth 框架正是在这样的需求下应运而生。
大模型微调框架之LLaMA Factory
近年来,大语言模型(LLM)在自然语言处理(NLP)领域取得了突破性进展。然而,直接训练或微调这些模型往往需要昂贵的计算资源和复杂的工程实现,这使得许多研究者和开发者在落地应用时面临困难。
大模型框架之PEFT
在大模型浪潮下,如何让模型在 低成本、低门槛 的条件下完成特定任务的适配,是开发者和研究者共同关注的问题。 Hugging Face 推出的 PEFT框架,为这一挑战提供了系统化的解决方案。
大模型微调框架之TRL
近年来,大语言模型(LLMs)的快速发展推动了下游应用的繁荣,但如何高效地对这些模型进行对齐和微调,依然是研究与应用的热点。本文将介绍 TRL 的 框架组成基本原理,并给出一个小demo 带你快速上手
知识管理与 RAG 框架全景:从 LlamaIndex 到多框架集成
本篇文章就让我们来看一下 LlamaIndex和Haystack 这两个框架,我简单的介绍一下架构设计,以及多框架集成和知识库动态管理实践,同时提供示例代码帮助你快速理解并上手做自己的小demo。
深入 vLLM:高性能大模型推理框架解析
在大模型应用中,推理性能往往成为限制系统规模和用户体验的关键因素。为此,vLLM 应运而生,提供了高吞吐量、低延迟的推理引擎,并支持多模型协作和异构硬件调度。
手把手带你使用LangChain框架从0实现RAG
本文将带大家用 LangChain 框架,结合向量数据库,构建一个简易的 RAG 系统,并完成一个端到端的问答任务。
深入 LangChain:大模型工程框架架构全解析
LangChain 作为目前最流行的大模型工程化框架之一,提供了从业务逻辑编排、工具调用、知识管理到多模型协作的完整解决方案。它不仅让大模型能够更好地落地企业应用,还为复杂多轮任务提供了可扩展架构支持
下一页