首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ai
订阅
huan1993
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
部署70B大模型到底要多大显存?一文算清所有账
一、先算核心账:显存到底被谁吃了? 很多人算显存,只看模型文件大小,这是90%的人踩坑的根源。70B模型的显存占用,永远是两大块:模型参数本身的固定占用 + 运行时的动态开销,少算任何一块,都会直接O
Prompt、Agent、Function Call、Skill、MCP,傻傻分不清楚?
前言 最近AI越来越火了。 我发现里面有很多概念有些小伙伴有点分不清楚,比如:Prompt、Agent、Function Call、Skill、MCP等。 今天这篇文章专门跟大家一起聊聊这个话题,希望
老婆问我:“大模型的 Token 究竟是个啥?”
什么是 Token? 最近 DeepSeek 很火,老婆又问我:大模型里的 Token 到底是个什么东西? 我:所谓 Token,Token,分而治之。 “Token 就是模型眼中的‘最小语言单位’。
女朋友问我大模型参数究竟是个什么东西?
最近DeepSeek很火,老婆问我:“大模型的参数到底是什么东西?” 我:所谓参数,参数,参天之数。其实参数本身就是一个数值,可能其中一个是3.123456789,另一个是-0.0009527。以De