首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
coting
掘友等级
算法工程
公众号👉coting
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
6
文章 6
沸点 0
赞
6
返回
|
搜索文章
最新
热门
一文搞懂量化、剪枝和知识蒸馏都是什么?
随着深度学习模型的参数量从百万级跃升至千亿级,部署和推理的计算、存储、带宽压力急剧增加。尤其在边缘设备和低延迟应用中,庞大的模型不仅占用显存,还拖慢推理速度。
AI训练中的混合精度计算技术详解
在大模型训练时代,模型参数规模动辄数百亿甚至上万亿,传统的 FP32 单精度训练 已经无法满足显存和速度的需求。混合精度技术通过在保持模型精度的同时使用更低位数的浮点格式,有效减少显存占用、提升吞吐量
AI训练要的数据这么多,怎么存?
训练好的AI模型如果不能快速、稳定、弹性地部署到生产环境,那么再高的准确率也只是“实验室成果”。容器化(Docker)与云原生正好为AI部署提供了统一打包、跨环境运行与自动扩缩的能力。
AI训练与推理的硬件需求有什么区别?
在人工智能项目的全生命周期中,训练(Training) 和 推理(Inference) 是两个至关重要的阶段。虽然它们都需要算力支持,但在计算资源、内存容量、存储系统和通信带宽等方面的需求差异很大。
GPU与TPU:AI计算硬件的核心对比
在人工智能,尤其是深度学习和大模型的浪潮中,算力已成为推动技术进步的核心引擎。GPU(图形处理器)和TPU(张量处理器)是两种主流的AI计算硬件,它们既有相似之处——都擅长并行浮点运算,又有相当的差别
AI Infra-为什么AI需要专属的基础设施?
近几年,人工智能尤其是大模型的爆发式发展,让算力、存储、网络等基础资源的需求呈现指数级增长。传统的IT基础设施虽然支撑了互联网时代的业务运行,但面对AI训练和推理的超高计算密度、海量数据吞吐也力不从心
MCP vs A2A:理解代理系统的两类关键协议
在智能代理开发领域,随着多智能体系统和工具集成的普及,我们经常会遇到两个概念:模型上下文协议(MCP)和Agent2Agent 协议(A2A)。他们到底有什么区别,又各自有什么用呢?
Agent2Agent 协议:让智能体真正学会“对话”
在过去几年,人工智能的发展让单个智能体已经能完成越来越复杂的任务,比如写文章、做数据分析、甚至协助编程。但当任务变得更复杂、需要多个智能体分工协作时,我们就会遇到一个问题:不同智能体之间怎么有效沟通?
什么是Agent?
在大模型快速发展的今天,我们经常会听到一个词:Agent(智能体)。简单来说,Agent 就是一个基于大模型的“智能助手”,它不仅仅能回答问题,还能记住上下文、进行任务规划、调用外部工具.
Function Calling:让语言模型调用外部功能
在现代 AI 系统中,语言模型不仅可以生成文本,还可以直接调用外部功能或服务。这种机制被称为 Function Calling。Function Calling 的原理、工作流程是什么呢?
下一页
个人成就
文章被点赞
21
文章被阅读
12,788
掘力值
1,479
关注了
4
关注者
9
收藏集
0
关注标签
23
加入于
2025-05-27