首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LearnLLM_AI
掘友等级
LearnLLM.AI
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
93
文章 93
沸点 0
赞
93
返回
|
搜索文章
最新
热门
10分钟私有化部署大模型到本地
如今, 私有化部署一个大模型早已不是什么有门槛或技术含量的工作了,更多的只是一种信息差而已。照着这个教程来,即使小白也可以在本地部署大模型。
为什么会发展出Multi-Query Attention和Group-Query Attention?
如果你看GPT系列的论文,你学习到的self-attention是Multi-Head Attention(MHA)即多头注意力机制,这个机制已经能很好的捕捉信息了,为什么会继续发展出MQA和GQA?
如何评判大模型的输出速度?首Token延迟和其余Token延迟有什么不同?
如果你使用商用大模型,或者使用开源大模型本地化部署,除了生成的质量之外,另外一个关键的指标就是生成token的速度。而且并不是简单的每秒生成多少个token,而是拆成了两个阶段
(万字长文)Prompt Engineering-解锁大模型的力量
你知道如何让800公斤的牛安全地通过一座承重700公斤的桥 你知道夏目漱石将“I Love You”翻译成“今晚月色真美” 面对喜欢的人时,你却不知道从何说起。每次打开聊天框脑海里浮现的只有‘在吗?’
过去式就能越狱大模型?一文了解大模型安全攻防战!
DAN 越狱 男人不坏,女人不爱。这句话在谈恋爱领域不知道是不是真的,在人工智能领域倒是先应验了。 人工智能不坏,人类不爱。 前一段时间,ChatGPT 的 Dan 模式突然在小红书火起来了。
看懂FlashAttention需要的数学储备是?高考数学最后一道大题!
多年以后,面对FlashAttention,你会忍不住想起高三上学期的那节数学课。那时,暑假刚刚结束,烈日当空,教室里就像蒸笼一样,连空气都懒得流动。
个人成就
文章被点赞
129
文章被阅读
60,284
掘力值
1,862
关注了
0
关注者
43
收藏集
0
关注标签
4
加入于
2024-04-23