首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
用户34633930172
更多收藏集
微信扫码分享
微信
新浪微博
QQ
6篇文章 · 0订阅
白嫖16G+2vCPU的服务器!超简单教程,有手就会
大家好,我是MAI麦造 玩大模型的一定不会陌生 Hugging Face 。 作为一个机器学习社区的协作平台,常用于模型、数据集和应用程序的开发。 为了推动 AI 社区建设,他们提供了 Space 来
再见 Cursor,从0到1用上Claude Code后,惊呼这才是生产力工具
最近,为了给我的一个AI项目做功能升级,我算是把Cursor给“盘”明白了。但说实话,越用越觉得有点“不得劲”。 一个不是很复杂的功能,在Cursor里,这事儿就变得特别“拧巴”:我得手动@一堆相关文
如何定量分析 Llama 3,大模型系统工程师视角的 Transformer 架构
今天的分享主要从工程师的视角来剖析 Transformer 的整体架构,主要分 4 个部分,具体请见文章。
深度学习基础入门篇[六(1)]:模型调优:注意力机制[多头注意力、自注意力],正则化【L1、L2,Dropout,Drop Connect】等
1.注意力机制 在深度学习领域,模型往往需要接收和处理大量的数据,然而在特定的某个时刻,往往只有少部分的某些数据是重要的,这种情况就非常适合Attention机制发光发热。 举个例子,图2展示了一个机
《深入浅出LLM基础篇》(一):大模型概念与发展
本作者推出全新系列《深入浅出LLM》专栏,分为基础篇、进阶篇、实战篇等,本文为基础篇具体章节如导图所示,分别从大模型模型概念、经典模型、创新点、微调、分布式训练、数据集、RAG、Agent及项目实站!
从原理到实践,构建属于自己的AI客服机器人
本文将通过构建一个简单的客服机器人作为切入点,并对技术中大语言模型的基本原理和核心机制进行深入剖析。通过阅读本文,你可以快速了解市面上大部分大模型的接入原理,并具备快速对接`通义大模型的能力。