首页
AI Coding
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
检索集
订阅
穿越时空的栗子
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
从0开始LLM-注意力机制-2
实现带有可训练权重的自注意力 自注意力机制,被广泛应用于原始的 Transformer 架构、GPT 模型以及大多数其他流行的大语言模型中。这种自注意力机制也被称作缩放点积注意力(scaled dot
🚀惊了,这个国产软件居然这么牛,比 uniapp 还全能❤️
最近跟同事闲聊,大家都在吐槽一个问题: ! App 是越做越像平台了,但开发却越做越痛苦了。 你想加个活动页,产品说今晚上线; 你想做个业务扩展,运营说要不你再写个低代码工具; 你想适配鸿蒙,领导说最
发现一个Element-Plus 小工具,用起来不要太爽
前言 一直以来我都被element-plus的from表单和table表格组件的开发困扰,每次改问题的时候就会发现组件一大堆表单代码,冗余太多了,然后又是不同开发者改。注释的代码,重复复制黏贴的代码。
吴恩达官宣开源,yyds!
最近,GitHub 上又一个开源项目火成了一匹黑马。 开源才短短十几天,star 标星就从 0 飙升到了 8000+,可以说是最近看到的涨 star 极其生猛的开源项目之一了。 出于好奇,我也点进去看