首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
大模型
aicoting
创建于2025-05-27
订阅专栏
系统整理与分享深度学习与大语言模型(LLM)相关的核心知识、面试内容、实际应用场景及部署技巧。
等 3 人订阅
共65篇文章
创建于2025-05-27
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
GPT-5.1 发布:更聪明,也更有温度的 AI
如果说 GPT-5 是一位理性的工程师,那么 GPT-5.1 Instant 就像是那位既懂逻辑又会聊天的朋友。它延续了 GPT-5 的高准确性,同时在语气、理解力和指令执行上都有明显提升。
Hugging Face 200页的大模型训练实录
最近,Hugging Face 发布了一篇罕见的超长技术博客——超过 200 页的《Smol 训练手册》。
Kimi K2 Thinking:面向思考+工具调用的高阶智能体大模型
最近Kimi K2 Thinking 在国内外AI圈引起了不小的轰动,它以“思考(thinking tokens)+ 长序列工具调用” 为核心设计理念,并提出训练与推理策略。
LongCat-Flash-Omni:美团的全模态大模型
在多模态浪潮加速的 2025 年,美团再次交出了一份令人惊艳的答卷。 继 LongCat-Flash-Chat 与 LongCat-Flash-Thinking 之后,LongCat 系列迎来了新成员
Kimi Linear——有望替代全注意力的全新注意力架构
Kimi最近提出了Kimi Linear,这是一种混合线性注意力(Hybrid Linear Attention)架构。
面试官:Vision-Language 模型中,如何实现跨模态特征对齐?CLIP 与 BLIP 的主要区别?
这道题表面上问“特征对齐”,其实考察的是你对多模态表示学习(Multimodal Representation Learning)的理解深度。
面试官:多模态 Transformer 如何处理不同模态的序列长度差异?
这其实是一个非常典型、但又容易被忽略的问题。很多人知道 CLIP、BLIP、Flamingo、LLaVA 这些模型“能理解图文”,但很少去想图像是一张二维矩阵,文本是一串一维 token 序列.
美团LongCat-Video解析
过去几年,AI 让我们见识了语言理解的奇迹。ChatGPT 能写文章、Midjourney 能画画,但让机器真正理解并预测世界,还需要更深一层的智能——那就是「世界模型」(World Model)。
AI训练要的数据这么多,怎么存?
训练好的AI模型如果不能快速、稳定、弹性地部署到生产环境,那么再高的准确率也只是“实验室成果”。容器化(Docker)与云原生正好为AI部署提供了统一打包、跨环境运行与自动扩缩的能力。
GPU与TPU:AI计算硬件的核心对比
在人工智能,尤其是深度学习和大模型的浪潮中,算力已成为推动技术进步的核心引擎。GPU(图形处理器)和TPU(张量处理器)是两种主流的AI计算硬件,它们既有相似之处——都擅长并行浮点运算,又有相当的差别
AI Infra-为什么AI需要专属的基础设施?
近几年,人工智能尤其是大模型的爆发式发展,让算力、存储、网络等基础资源的需求呈现指数级增长。传统的IT基础设施虽然支撑了互联网时代的业务运行,但面对AI训练和推理的超高计算密度、海量数据吞吐也力不从心
MCP vs A2A:理解代理系统的两类关键协议
在智能代理开发领域,随着多智能体系统和工具集成的普及,我们经常会遇到两个概念:模型上下文协议(MCP)和Agent2Agent 协议(A2A)。他们到底有什么区别,又各自有什么用呢?
Agent2Agent 协议:让智能体真正学会“对话”
在过去几年,人工智能的发展让单个智能体已经能完成越来越复杂的任务,比如写文章、做数据分析、甚至协助编程。但当任务变得更复杂、需要多个智能体分工协作时,我们就会遇到一个问题:不同智能体之间怎么有效沟通?
什么是Agent?
在大模型快速发展的今天,我们经常会听到一个词:Agent(智能体)。简单来说,Agent 就是一个基于大模型的“智能助手”,它不仅仅能回答问题,还能记住上下文、进行任务规划、调用外部工具.
Function Calling:让语言模型调用外部功能
在现代 AI 系统中,语言模型不仅可以生成文本,还可以直接调用外部功能或服务。这种机制被称为 Function Calling。Function Calling 的原理、工作流程是什么呢?
场景驱动的大模型评估:行业落地的挑战与实践
在大模型快速演进的浪潮中,模型参数量、推理速度、通用能力已经不再是唯一的竞争维度。真正决定大模型商业价值的,是它能否在具体行业场景中稳定、高效、安全地落地运行。
大模型评估方法论:指标拆解与技术路径
本文将带你走进大模型评估的“方法论核心”,从指标拆解到技术路径,全面梳理业界常用的评估框架,帮你建立一套可落地、可复用的评估体系。
大模型的好坏怎么进行评估?
过去几年,大语言模型(LLM)像火箭一样发展,从几亿参数到千亿参数,从只能写几句短文到能写论文、写代码、画插图、做科研。它们的能力令人惊叹,但也让一个新问题浮出水面——它到底靠不靠谱?
Serverless 架构下的大模型框架落地实践
随着大模型在企业场景中广泛应用,Serverless 架构因其按需弹性伸缩、免运维管理和成本优化的特点,成为大模型落地的理想选择。
大模型框架性能优化策略:延迟、吞吐量与成本权衡
在大模型应用和推理系统中,性能优化是关键环节。无论是 LangChain、vLLM 还是 RAG 系统,架构设计、推理策略和资源调度都会直接影响延迟、吞吐量和成本。
下一页